Académique Documents
Professionnel Documents
Culture Documents
Le manuel pour
Gestion de la qualité
Machine Translated by Google
À propos des
auteurs Thomas Pyzdek est un consultant Six Sigma
avec plus de 40 ans d'expérience dans le domaine.
Ses clients incluent Ford, McDonald's, Intuit, Boeing,
Seagate, Avon Products et de nombreuses autres
sociétés. M. Pyzdek est récipiendaire de la médaille
Edwards de l'American Society for Quality pour ses
contributions exceptionnelles à la pratique de la
gestion de la qualité et de la médaille EL Grant pour
son leadership exceptionnel dans le développement
et la présentation de programmes éducatifs méritoires
en matière de qualité. Il a également reçu un prix Lean
Six Sigma Leadership de l'American Quality Institute.
Le manuel pour
Gestion de la qualité
Un guide complet de l'excellence opérationnelle
Thomas Pizdek
Paul Keller
Deuxième édition
Les livres McGrawHill sont disponibles à des remises spéciales sur la quantité à utiliser comme primes et promotions des
ventes, ou à utiliser dans les programmes de formation en entreprise. Pour contacter un représentant, veuillez nous
envoyer un email à b ulksales@mcgrawhill.com.
Copyright © 2013 par The McGrawHill Companies, Inc. Tous droits réservés. Imprimé aux ÉtatsUnis d'Amérique.
Sauf dans la mesure permise par la loi américaine sur le droit d'auteur de 1976, aucune partie de cette publication
ne peut être reproduite ou distribuée sous quelque forme ou par quelque moyen que ce soit, ou stockée dans une
base de données ou un système de récupération, sans l'autorisation écrite préalable de l'éditeur.
1 2 3 4 5 6 7 8 9 0 COD/COD 1 9 8 7 6 5 4 3 2
ISBN 9780071799249
MHID 0071799249
Les pages de ce livre ont été imprimées sur du papier sans acide.
Les informations contenues dans ce document ont été obtenues par The McGrawHill Companies, Inc. (« McGrawHill ») auprès
de sources considérées comme fiables. Cependant, ni McGrawHill ni ses auteurs ne garantissent l'exactitude ou l'exhaustivité
des informations publiées ici, et ni McGrawHill ni ses auteurs ne seront responsables des erreurs, omissions ou dommages
résultant de l'utilisation de ces informations. Ce travail est publié avec la compréhension que McGrawHill et ses auteurs
fournissent des informations mais ne tentent pas de fournir des services d'ingénierie ou d'autres services professionnels. Si de
tels services sont nécessaires, l'assistance d'un professionnel approprié doit être recherchée.
Machine Translated by Google
Contenu
Préface. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xii
5 Planification stratégique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Vision organisationnelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Développement de la stratégie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
v
Machine Translated by Google
vi C ontenu s
Styles stratégiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Décisions stratégiques basées sur les possibilités. . . . . . . . . . . . . . . . . . . . . 71
Développement stratégique utilisant la théorie des contraintes. . . . . . . . . . . . 72
74 L'approche systémique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Principes
de base de la gestion des contraintes
et Concepts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Outils de
gestion des contraintes. . . . . . . . . . . . . . . . . . . . 87 Mesures de gestion
des contraintes. . . . . . . . . . . . . . 98
C ontenu s vii
viii C ontenu s
C ontenu s ix
X Contenu
Indice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
Machine Translated by Google
Préface
Merci de l'intérêt que vous portez au Manuel de gestion de la qualité de McGraw Hill.
La version originale du texte, publiée pour la première fois en 1996 par Quality
Publishing, a été écrite exclusivement par Tom Pyzdek. J'ai eu le plaisir d'éditer une
révision publiée en 2000, qui comprenait des chapitres sur les méthodes Six Sigma
et Lean (écrits par moimême), ainsi que le matériel de gestion des contraintes de
Bill Dettmer, qui est répété dans cette édition. Les premières éditions se sont
vendues à plusieurs milliers d'exemplaires à la fin de 2000, établissant le manuel
comme une référence de bureau essentielle pour le professionnel de la qualité.
Les versions antérieures s'appuyaient fortement sur l'ensemble de connaissances
de l'American Society for Quality (ASQ) pour les gestionnaires de la qualité, même
dans la mesure où les titres de chapitre et les soustitres correspondaient à ceux de
l'ensemble de connaissances. Bien que cela ait pu aider ceux qui cherchaient à
cocher les éléments qu'ils avaient appris, cela avait tendance à perturber le flux des
sujets. L'un des principaux objectifs de cette édition était la réorganisation du matériel
dans des discussions plus fluides sur les concepts et les méthodes essentielles à la
gestion de la qualité et à l'excellence opérationnelle. Pour ceux qui veulent l'utiliser
comme référence pour l'examen ASQ CMQ/OE, les informations sont toujours dans
le livre, avec des exemples de questions au dos, et des réponses disponibles sur le
site Web affilié : www.mhprofessional.com/HQM2 L'ensemble
des connaissances nécessaires pour atteindre l'excellence opérationnelle est
fortement influencé par les travaux de Deming et Juran, dont la plupart datent de la
période de 1950 au milieu des années 1980. Ces auteurs ont passé leur carrière à
préconiser une approche scientifique de la qualité, remplaçant l'idée largement
répandue selon laquelle les inspections d'assurance qualité qui prévalaient dans
l'aprèsguerre étaient des approches suffisantes, voire crédibles, pour atteindre la
qualité.
Au cours des 40 dernières années, la discipline de la gestion de la qualité a
connu une évolution constante, passant d'une commande et d'un contrôle internes à
des fonctions plus proactives et axées sur le client. Le marché a certainement
encouragé cela, alors que les économies passaient de la domination des fabricants de produits
xii
Machine Translated by Google
xii P réface
dépendre davantage des fournisseurs de solutions basées sur les services. Il semble
raisonnable que les économies de services tendent naturellement à se concentrer sur le
client, car une grande partie du service implique un contact direct avec le client.
Les commentaires peuvent être amèrement honnêtes, mais aussi rapidement traités (par
rapport à une mauvaise qualité de fabrication). Les aspects de la gestion de la qualité
deviennent partie intégrante des opérations commerciales ; les cotes de qualité et les
récompenses sont une compétition, et le succès est présenté comme un signe d'engagement
envers le client ; l'innovation est un refrain constant dans les revues d'affaires et même dans
les publicités ; les sondages auprès des clients sont endémiques ; les données sont
omniprésentes, donc faire la différence entre le changement réel et la variation aléatoire
devient une compétence de base ; et ainsi de suite. Le coût de la mauvaise qualité se
matérialise en temps réel sous forme de perte de parts de marché ou de rentabilité.
Cette dernière édition développe les notions historiques de la trilogie de la qualité de
Juran pour décrire la transformation de l'entreprise grâce à une stratégie innovante axée sur
le client, un contrôle significatif des processus à l'aide de statistiques et des améliorations
ciblées parrainées par la direction des principaux produits et services. Les enseignements de
Deming sur les responsabilités et les systèmes de gestion sont intégrés partout.
Paul Keller
Machine Translated by Google
PARTIE I
Intégré à l'entreprise
Chapitre 1
Systèmes Qualité
Structures organisationnelles
Chapitre 2
La fonction qualité
Chapitre 3
Approches de la qualité
Chapitre 4
révolution d'essai, qui a donné l'impulsion Axée sur le client
pour passer
Les organisations d'une
modernes tradition
trouvent leursd'artisans à l'Indus
racines dans celle de
Organisations
industries mécanisées. Les progrès rapides des sources d'énergie
mobiles, telles que la machine à vapeur, l'amélioration des transports,
l'éclairage au gaz, les progrès de la métallurgie et de la chimie, etc., ont conduit à la fois à
l'approvisionnement en matériaux, méthodes et infrastructures et à une demande d'innovation
commerciale pour répondre aux besoins d'un marché en croissance. Au fur et à mesure de la
croissance des entreprises, les petites entreprises (souvent familiales) ont été remplacées par de
plus grandes sociétés, capables de réunir les capitaux nécessaires pour se développer rapidement.
Dans les pays industrialisés, les organisations ont complètement changé, donnant
naissance à la forme d'organisation bureaucratique. Cette forme d'organisation se
caractérise par la division des activités et des responsabilités en départements gérés
par des professionnels de la gestion à plein temps qui n'avaient pas d'autre source
de subsistance que l'organisation.
Machine Translated by Google
Machine Translated by Google
CHAPITRE 1
Structures organisationnelles
Machine Translated by Google
Machine Translated by Google
La théorie des coûts d'action d'une entreprise (Coase, 1937) postule qu'il y a
Les organisations
des coûts existent
associésparce qu'elles servent
aux transactions sur le un but utile.
marché et queLes
lestrans
organisations ne
profitent que lorsqu'elles offrent un avantage de coût. Des exemples de ces coûts incluent
le coût de la découverte des prix du marché, les coûts de négociation et de passation de
marchés, les taxes sur les ventes et autres taxes sur les échanges entre entreprises, le
coût de la réglementation des transactions entre entreprises, etc.
La théorie des coûts de transaction offre un cadre pour comprendre les limites de
la taille d'une entreprise. À mesure que les entreprises se développent, il devient plus
coûteux d'organiser des transactions supplémentaires au sein de l'entreprise, appelées
« rendements décroissants de la gestion ». Lorsque le coût d'organisation d'une
transaction supplémentaire est égal au coût de réalisation de la transaction sur le
marché libre, la croissance de l'entreprise s'arrête. Bien entendu, ces coûts sont
également affectés par la technologie : les télécopieurs (à leur époque), les satellites,
les ordinateurs et, plus récemment, Internet ont chacun modifié le coût d'organisation,
impactant d'autant la taille optimale de l'entreprise. De telles inventions ont simultanément
un impact sur le coût d'utilisation des marchés externes, de sorte que l'impact relatif de
la technologie sur les coûts du marché et les coûts d'organisation détermine l'impact global sur l'organisati
De toute évidence, la capacité d'effectuer efficacement des transactions sur le marché, avec un
minimum de frais généraux bureaucratiques, a un impact sur l'utilité d'une organisation pour le
marché, ainsi que sur sa prospérité et sa durée de vie éventuelle.
5
Machine Translated by Google
Figure 1.1 Les six éléments de base de l'organisation (Mintzberg et Quinn, 1991).
Structures organisationnelles 7
Meilleur patron
Assistante du personnel
tâches effectuées par les travailleurs pour faire le travail. La direction pourrait améliorer l'efficacité du
travail, au profit à la fois de la direction et des travailleurs, en appliquant les méthodes de la science
pour (1) sélectionner les individus les mieux adaptés à un travail particulier et (2) identifier la manière
optimale dont les emplois pourraient être effectué. Henry Ford a encore fait progresser cette
déqualification de la maind'œuvre grâce à la mécanisation de la production.
Malgré la résistance des artisans et des machinistes, qui ont compris la valeur de leurs
connaissances et de leurs compétences en termes de récompenses monétaires et de sécurité de
l'emploi, la réduction du travail à une série de tâches simples effectuées avec un investissement
relativement faible en formation est l'un des résultats majeurs de gestion scientifique. Les
ramifications de ces efforts comprennent une meilleure surveillance de la gestion, un investissement
réduit dans la formation des travailleurs et un remplacement plus facile de ceux qui ont fait un travail
insatisfaisant (avec des incitations pour améliorer les performances). Malheureusement, le travail
déqualifié est généralement beaucoup plus ennuyeux, ce qui entraîne une variété de problèmes tels
que des niveaux élevés de stress et le roulement du personnel.
Organisations matricielles
Dans une organisation matricielle, la hiérarchie fonctionnelle reste intacte, mais une
structure d'équipe interfonctionnelle horizontale se superpose à la hiérarchie fonctionnelle.
La forme matricielle est illustrée à la Fig. 1.3.
La forme matricielle a été largement utilisée dans les années 1970 comme méthode
générale d'organisation du travail. La plupart des entreprises ont conclu qu'il n'était pas
pratique d'organiser le travail de routine de cette manière. Pourtant, grâce à cette expérience,
la structure matricielle est bien comprise. De plus, la matrice s'est avérée utile comme
méthode de conduite de grands projets transversaux. Dans une certaine mesure, la forme
matricielle surmonte la mentalité « cloisonnée » de la hiérarchie fonctionnelle en créant des
équipes interfonctionnelles.
Lorsqu'elle est utilisée pour des projets, l'approche matricielle crée des structures qui
sont focalisées (sur le projet) et peuvent exister temporairement. En fait, la plupart des grands,
Machine Translated by Google
Structures organisationnelles 9
UN B C D
Projet
UN
Responsable de fonction
Domaine de
UN B C D
préoccupation
Qualité
Coût
Temps
d'un cycle
est similaire à celle de la structure matricielle. Cependant, il existe un certain nombre de différences
importantes entre les structures matricielles et transversales :
projets spécifiques. • Durée. Les organisations matricielles sont temporaires, tandis que transversales
les organisations sont souvent permanentes.
• Mise au point. Les organisations interfonctionnelles traitent souvent avec des groupes externes
tels que les clients, la société au sens large ou les régulateurs. Les organisations matricielles
se concentrent généralement sur les préoccupations internes.
Par rapport aux organisations traditionnelles, les organisations interfonctionnelles offrent une
meilleure coordination et intégration du travail, des temps de réponse plus rapides, des contrôles de coûts
simplifiés, une plus grande utilisation de la créativité et une plus grande satisfaction au travail. Il convient
de noter que les organisations interfonctionnelles s'ajoutent plutôt qu'elles ne remplacent les organisations
traditionnelles.
Fournisseur
Services de laboratoire OB/GYN
pharmaceutique Doula Groupe de soutien
Transport
Le clergé
tiers payeur
Structures organisationnelles 11
Était Est
l'ère artisanale du passé : des métiers plus complexes d'où le besoin de maind'œuvre
disposant d'un répertoire de compétences plus large. D'autres tendances s'inscrivent dans
la continuité des tendances passées : les marchés internationaux sont la prochaine étape
logique après le passage des marchés locaux aux marchés nationaux. À d'autres égards,
le nouveau monde des affaires est tout simplement différent : les systèmes flexibles
modernes divergent fondamentalement des systèmes précédents.
Il s'ensuit que les organisations d'hier, qui ont évolué en réponse aux réalités du passé,
pourraient ne pas être adaptées à la réalité changeante. En fait, il existe des preuves solides
suggérant que les organisations qui ne s'adaptent pas disparaîtront tout simplement. Plus
de 40 % de la liste de 1979 du Fortune 500 avait disparu en 1990 (Peters, 1990). Les
organisations qui ont réussi à progresser ne sont pas restées immobiles.
Formes d'organisation
En plus de décrire les organisations en termes de structures, Mintzberg (1994) les décrit
également en termes de formes. Mintzberg propose un cadre de cinq formes fondamentales
d'organisation :
Structures organisationnelles 13
CHAPITRE 2
La fonction qualité
Machine Translated by Google
Machine Translated by Google
Juran Trilogy
Juran et Gryna (1988, p. 2.6) définissent la fonction qualité comme « l'ensemble
des activités grâce auxquelles nous atteignons l'aptitude à l'emploi, quel que
soit l'endroit où ces activités sont exécutées ». La qualité est donc influencée
par, sinon la responsabilité de nombreux départements différents. Dans la
plupart des cas, le service qualité joue un rôle secondaire de soutien. Si le
service qualité est une fonction spécialisée, les activités qualité sont dispersées
dans l'ensemble de l'organisation. Le terme « fonction qualité » s'applique aux
activités, départementales et à l'échelle de l'entreprise, qui aboutissent
collectivement à la qualité du produit ou du service. Une analogie peut être faite
avec le département des finances. Même si de nombreuses fonctions financières
et comptables spécialisées sont gérées par le service des finances, chaque
employé de l'organisation doit pratiquer une gestion responsable de ses budgets et de ses dépe
Juran et Gryna (1988) ont regroupé les activités de qualité en trois catégories,
parfois appelées la trilogie de Juran : planification, contrôle et amélioration. La
planification de la qualité est l'activité de développement des produits et des
processus nécessaires pour répondre aux besoins des clients. Elle implique un
certain nombre d'étapes universelles (Juran et DeFeo, 2010) :
•Définir les clients.
•Déterminer les besoins du client.
•Développer des fonctionnalités de produits et de services pour répondre aux
besoins des clients. •Développer des processus pour fournir les fonctionnalités du
17
Machine Translated by Google
Figure 2.1 (a) Représentation des activités de qualité dans l'organisation (Shewhart, 1939). (b) La
roue de contrôle de la qualité de Deming (1986). (c) la spirale de progrès de la qualité de Juran (Juran
et Gryna, 1988).
Machine Translated by Google
L a fonction qualité 19
marché
Étude
de
Retour
Utiliser
Service
Clients
Commerce de détail
Produit
marché
Étude
de Produitdéveloppement
Commercialisation conception
Commerce de gros
spécifications
Recherche
de
Inspection; test
s
Pu
Production;
Fabrication
planification
Fournisseur
processus
contrôle
de
(c)
Président
président marketing président finances Qualité V.P. président ingénierie président production
Contrôle
Ingénierie Qualité Contrôle et
qualité
de la fiabilité Ingénierie CQ assurance essai
fournisseur
L a fonction qualité 21
Plusieurs approches organisationnelles alternatives pour traiter les problèmes créés par la
structure traditionnelle ont déjà été discutées. L'organisation transversale est, à ce jour, la structure
alternative la plus répandue. Les « conseils » ou « comités de pilotage » de la qualité sont des
équipes interfonctionnelles qui établissent la politique de qualité et, dans une large mesure,
déterminent le rôle des spécialistes de la qualité dans la réalisation des objectifs de la politique.
Le comité de pilotage prend des décisions concernant la totalité des ressources de l'entreprise
(y compris celles affectées à d'autres domaines fonctionnels) à consacrer à la planification, à
l'amélioration et au contrôle de la qualité.
Qualité Rédiger des procédures qualité; Maintenir le manuel de qualité ; Réaliser des
Assurance audits qualité; Systèmes d'information sur la qualité ; Certification de qualité;
Entraînement; Systèmes de coût qualité
Inspection et test Inspection et test en cours de fabrication ; Inspection et test du produit final ;
Être inspecté; Maintenance des dossiers d'inspection ; Étalonnage de la jauge
Qualité du fournisseur Enquêtes préalables auprès des fournisseurs ; Systèmes d'information sur la qualité des fournisseurs ;
prestations de service. Les préoccupations des clients doivent être mises en balance avec
les préoccupations des investisseurs et des employés. La haute direction, composée de la
haute direction et du conseil d'administration, doit peser toutes ces préoccupations et arriver
à un plan d'allocation des ressources qui répond aux besoins de toutes les parties prenantes
de l'organisation. Le principe unificateur pour toutes les parties prenantes est le but de
l'organisation.
Il existe deux manières fondamentales de devenir (ou de rester) compétitif : atteindre une
qualité perçue supérieure en développant un ensemble de spécifications de produits et de
normes de service qui répondent plus étroitement aux besoins des clients que les
concurrents ; et atteindre une qualité de conformité supérieure en étant plus efficace que vos
concurrents pour se conformer aux spécifications de produit et aux normes de service
appropriées. Ceuxci ne sont pas mutuellement exclusifs; d'excellentes entreprises font les
deux simultanément.
Les résultats de la recherche indiquent que l'obtention d' une qualité perçue supérieure
(c'estàdire telle que perçue par les clients) offre trois options à une entreprise, toutes
favorables à sa compétitivité (Buzzell et Gale, 1987) :
•Vous pouvez facturer un prix plus élevé pour votre qualité supérieure et ainsi augmenter
la rentabilité. •Vous pouvez
facturer un prix plus élevé et investir la prime dans la R&D, garantissant ainsi une
meilleure qualité perçue et une plus grande part de marché à l'avenir.
• Vous pouvez facturer le même prix que votre concurrent pour votre produit supérieur, ce qui
vous permet de gagner des parts de marché. Une part de marché accrue, à son tour, signifie
une croissance du volume et une augmentation de l'utilisation de la capacité (ou de l'expansion
de la capacité), ce qui vous permet de réduire les coûts (ou d'augmenter les bénéfices).
• Coût de la qualité inférieur à celui des concurrents, ce qui se traduit par une baisse
coût total.
•Étant donné que la qualité de conformité est un facteur dans l'obtention de la qualité
perçue, elle conduit aux avantages de la qualité perçue énumérés cidessus.
L a fonction qualité 23
100
80
60
recommandera
Qui
%
40
20
0
Excellent Bien Équitable Pauvre
Sécurité
Un problème de sécurité survient lorsqu'un produit, du fait de son utilisation ou d'une mauvaise utilisation
prévisible, présente un danger pour l'utilisateur ou d'autres personnes. De toute évidence, l'approche
optimale pour résoudre les problèmes de sécurité passe par la prévention. Les activités d'examen de la
conception des produits et des processus doivent inclure la sécurité comme objectif principal. La sécurité est tout à fait
Machine Translated by Google
Questions de
réglementation Pendant de nombreuses années, « l'industrie » à la croissance la plus rapide
aux ÉtatsUnis a été la réglementation fédérale des affaires. La Small Business Administration
des ÉtatsUnis a estimé que la seule conformité aux réglementations fédérales a consommé
1,75 billion de dollars en 2008 (Crain et Crain, 2010), soit environ 13 % du PIB de 2008. Chaque
année, plus de 150 000 pages de nouvelles réglementations sont publiées par des agences
gouvernementales. Le responsable qualité sera presque certainement confronté à des
problèmes de conformité réglementaire dans son travail. Dans certaines industries, la conformité
peut être la principale composante du travail du responsable qualité.
Responsabilité du fait
des produits Le sujet de la qualité et de la loi est également connu sous le nom de responsabilité
du fait des produits. Bien qu'on ne s'attende pas à ce que le responsable qualité soit un expert
en la matière, les activités liées à la qualité ont une incidence directe sur l'exposition à la
responsabilité des produits d'une organisation et méritent l'attention du responsable qualité.
Pour comprendre la responsabilité du fait des produits, il faut d'abord saisir le vocabulaire du
sujet. Le tableau 2.2 présente la terminologie de base (Thorpe et Middendorf, p. 2021).
Il existe trois théories juridiques impliquées dans la responsabilité du fait des produits : la violation de la
garantie, la responsabilité stricte en matière délictuelle et la négligence. Deux branches du droit traitent de ces
domaines, le droit des contrats et le droit de la responsabilité délictuelle.
Un contrat est un accord contraignant pour la violation duquel la loi prévoit un recours. Les
concepts clés du droit des contrats relatifs à la responsabilité du fait des produits sont ceux de
rupture de garantie et de confidentialité du contrat.
La violation de la garantie peut provenir d'une garantie expresse ou d'une garantie implicite.
Une garantie expresse fait partie de la base d'une vente : l'acheteur a accepté l'achat en
supposant raisonnablement que le produit fonctionnerait de la manière décrite par le vendeur.
Celui du vendeur
Machine Translated by Google
L a fonction qualité 25
Prise de risque La théorie juridique selon laquelle une personne consciente d'un danger et de son ampleur et
qui s'y expose sciemment assume tous les risques et ne peut obtenir réparation, même si elle est
lésée sans qu'il y ait eu faute de sa part.
Négligence La négligence du demandeur qui contribue à son préjudice et qui, en common law, l'empêche
contributive généralement d'obtenir réparation auprès du défendeur, bien que le défendeur ait pu être plus négligent
que le demandeur.
Déposition Le témoignage d'un témoin pris hors cour devant une personne autorisée à faire prêter serment.
Découverte Procédures d'établissement des faits avant le procès afin d'éliminer l'élément de surprise
dans les litiges.
Devoir d'attention L'obligation légale de toute personne de faire preuve de diligence pour la sécurité d'autrui et d'éviter
de blesser les autres dans la mesure du possible.
Garantie Une déclaration d'un fabricant ou d'un vendeur, écrite ou orale, selon laquelle son produit est
expresse adapté à un usage spécifique et fonctionnera d'une manière spécifique.
Prévisibilité Théorie juridique selon laquelle une personne ne peut être tenue responsable d'actes entraînant des
blessures ou des dommages que lorsqu'elle était en mesure de prévoir les dangers et les risques
raisonnablement prévisibles.
Grand soin Le degré élevé de soin qu'une personne très prudente et prudente entreprendrait pour la
sécurité des autres. Les compagnies aériennes, les chemins de fer et les bus doivent
généralement faire preuve d'une grande prudence.
Garantie Une garantie automatique, implicite par la loi, que le produit d'un fabricant ou d'un revendeur
implicite est adapté à des fins ordinaires ou spécifiques et est raisonnablement sûr à utiliser.
Responsabilité Une obligation de réparer ou de dédommager toute blessure ou tout dommage dont la personne
responsable a été tenue responsable ou pour le nonrespect d'une garantie par un produit.
Négligence Défaut d'exercer une diligence raisonnable ou de s'acquitter d'une obligation légale qui entraîne des
blessures ou des dommages matériels à autrui.
Péril évident La théorie juridique selon laquelle un fabricant n'est pas tenu d'avertir les utilisateurs potentiels
de produits dont l'utilisation comporte un péril évident, en particulier ceux qui sont bien connus du
grand public et qui ne peuvent généralement pas être conçus à partir du produit.
À première vue Une telle preuve en ellemême établirait la réclamation ou la défense de la partie si la preuve était
crue.
Proche L'acte qui est la cause naturelle et raisonnablement prévisible du préjudice ou de l'événement qui se
cause produit et blesse le demandeur.
Raisonnable Le degré de soin exercé par une personne prudente dans le respect de ses devoirs légaux envers les
se soucier autres.
Res ipsa L'inférence permise selon laquelle le défendeur a fait preuve de négligence en ce que « la
loquitur chose parle d'ellemême » lorsque les circonstances sont telles que, normalement, le demandeur
n'aurait pas pu être lésé si le défendeur n'avait pas été fautif.
Norme de La théorie juridique selon laquelle une personne qui a une obligation légale doit
raisonnable exercer le même soin qu'une personne raisonnablement prudente observerait dans des
prudence circonstances similaires.
Responsabilité stricte en La théorie juridique selon laquelle le fabricant d'un produit est responsable des blessures
matière délictuelle dues aux défauts du produit, sans qu'il soit nécessaire de démontrer la négligence
du fabricant.
Subrogation Le droit du débiteur secondairement responsable de se substituer au créancier après
qu'il a effectué le paiement au créancier et de faire valoir le droit du créancier contre le
débiteur principal afin d'obtenir de lui une indemnité.
Délit Un acte fautif ou un défaut de diligence, pouvant entraîner une action en justice civile.
la déclaration n'a pas besoin d'être écrite pour que la garantie soit une garantie
expresse ; sa simple déclaration de fait est suffisante. Une garantie implicite est
une garantie non énoncée par le vendeur, mais implicite par la loi. Certaines
garanties résultent du simple fait qu'une vente a été réalisée. L'un des attributs
les plus importants garantis par une garantie implicite est celui de l'aptitude à un
usage normal. La garantie est que le produit est raisonnablement sûr.
Le lien contractuel signifie qu'il existe une relation directe entre deux parties,
généralement l'acheteur et le vendeur. À une certaine époque, les fabricants
n'étaient pas tenus responsables des produits achetés à des vendeurs ou
vendus à un consommateur par l'intermédiaire d'une chaîne de grossistes, de
revendeurs, etc. Les fabricants étaient traités comme des tiers cessionnaires et
n'étaient pas en relation privée avec l'utilisateur final. Ce concept a commencé à
se détériorer en 1905 lorsque les tribunaux ont commencé à autoriser les
poursuites contre les vendeurs d'aliments malsains, qu'ils soient ou non
négligents, et contre les fabricants d'origine, qu'ils soient ou non en relation avec
les consommateurs. La première reconnaissance de responsabilité stricte pour
une garantie expresse sans égard à la confidentialité a été énoncée par un
tribunal de Washington en 1932 dans une affaire impliquant une garantie
expresse de Ford Motor Company que leurs parebrise étaient « incassables ».
Lorsque le parebrise s'est brisé et a blessé un consommateur, le tribunal a
autorisé la poursuite contre Ford, statuant que même sans lien de confidentialité,
le fabricant était responsable de la fausse déclaration, même si la fausse déclaration avait été faite
En vertu de la règle de la responsabilité stricte , un consommateur innocent
qui ignore tout des clauses de nonresponsabilité et de l'obligation d'informer un
fabricant avec lequel il n'a pas fait affaire ne peut être empêché d'intenter une
action. La règle évite les limites techniques de la confidentialité, qui peuvent
créer une chaîne de poursuites judiciaires jusqu'à la partie qui a initialement mis
le produit défectueux dans le flux commercial. Le vendeur (qu'il soit vendeur ou
fabricant) est responsable même s'il a manipulé le produit avec soin et même si
le consommateur n'a pas traité directement avec lui.
Machine Translated by Google
L a fonction qualité 27
Le premier cas à appliquer cette règle moderne était Greenman contre Yuba Power
Products, Inc., en Californie en 1963. Une partie, M. Greenman, a été blessé lorsqu'une
pièce a volé d'un outil électrique combiné acheté pour lui par sa femme deux années avant
la blessure. Il a poursuivi le fabricant et produit des témoins pour prouver que la machine a
été conçue avec des vis de réglage inadéquates.
Le fabricant, qui avait annoncé que l'outil électrique avait une « construction robuste »
et des « verrouillages positifs qui tiennent grâce à un travail grossier ou de précision », a
affirmé qu'il ne devrait pas avoir à payer de dommagesintérêts parce que le demandeur ne
lui avait pas donné d'avis de violation de garantie dans un délai raisonnable selon les
besoins. En outre, une longue série d'affaires californiennes avaient statué qu'un demandeur
ne pouvait pas poursuivre quelqu'un qui n'était pas en contact avec lui à moins que le produit
défectueux ne soit de la nourriture.
Le tribunal a répondu qu'il ne s'agissait pas d'un cas de garantie mais d'un cas de
responsabilité stricte. La décision précise que tout « fabricant est strictement responsable
[…] lorsqu'un article qu'il a mis sur le marché, sachant qu'il doit être utilisé sans contrôle des
défauts, s'avère présenter un défaut causant un préjudice à un être humain ».
le produit qui est à l'essai et non le fabricant. Il existe plusieurs domaines dans lesquels
l'ingénierie et la gestion sont vulnérables, notamment la conception; fabrication et matériaux;
emballage, installation et application ; et les avertissements et les étiquettes.
Les conceptions qui créent des dangers cachés pour l'utilisateur, les conceptions qui ne
sont pas conformes aux normes acceptées, les conceptions qui excluent les dispositifs ou
dispositifs de sécurité nécessaires, ou les conceptions qui ne permettent pas correctement
une éventuelle mauvaise utilisation ou un abus dangereux raisonnablement prévisible pour le
concepteur sont toutes suspect. Le contrôle de la qualité comprend l'examen de la conception
comme l'un de ses principaux éléments, et toutes les conceptions doivent être soigneusement
évaluées pour ces lacunes. Comme toujours, le concept de raisonnabilité s'applique dans
toute son ambiguïté.
L'application des principes de contrôle de la qualité à la fabrication, aux matériaux, à
l'emballage et à l'expédition est probablement la meilleure protection possible contre de futurs
litiges. La prévention des défauts est l'objectif principal du contrôle qualité et le défaut qui
n'est pas fait n'entraînera jamais de perte ou de blessure. Gardez toutefois à l'esprit qu'un
défaut de contrôle qualité est généralement défini comme une nonconformité aux exigences.
Il n'y a pas une telle définition dans la loi. Les définitions légales d'un défaut sont basées sur
le concept de caractère raisonnable et la nécessité de considérer l'utilisation du produit.
La norme de la série 14000 reflète la norme de qualité ISO 9001 en exigeant une déclaration
de politique, un engagement de la direction descendante, un contrôle des documents, une
formation, des mesures correctives, une revue de direction et une amélioration continue. Les
plans prévoient d'intégrer ISO 9000 et ISO 14000 dans une seule norme de gestion qui inclura
également la santé et la sécurité. Il est possible qu'à terme un seul audit couvre à la fois ISO
9000 et ISO 14000.
ISO 14001, la spécification du système de management environnemental (SME), est destinée
à être la seule norme établissant des exigences par rapport auxquelles les entreprises seront
auditées pour la certification. La norme ne fixe pas d'exigences de résultats, uniquement pour
l'amélioration continue d' un
Machine Translated by Google
L a fonction qualité 29
SME de l'entreprise. ISO 14001 n'est pas une exigence ; c'est volontaire. ISO
14001 est une norme systémique qui donne aux entreprises un plan pour gérer
leur impact sur l'environnement.
Les exigences se répartissent en cinq domaines principaux :
CHAPITRE 3
Approches de la qualité
Machine Translated by Google
Machine Translated by Google
À la fin des années 1970, cependant, les influences du marché ont émergé pour remettre
en question le statu quo, notamment (Juran, 1995) :
33
Machine Translated by Google
1. Créer une constance dans l'objectif d'amélioration du produit et du service, dans le but
de devenir compétitif, de rester en activité et de fournir des emplois.
4. Mettre fin à la pratique consistant à attribuer les affaires sur la seule base du prix. Au
lieu de cela, minimisez le coût total à long terme. Aller vers un fournisseur unique pour
un même article, dans une relation de fidélité et de confiance à long terme.
8. Éliminer la peur et instaurer la confiance afin que chacun puisse travailler efficacement
activement.
9. Faites tomber les barrières entre les départements. Abolir la concurrence et construire
un système de coopération gagnantgagnant au sein de l'organisation. Les personnes
chargées de la recherche, de la conception, des ventes et de la production doivent
travailler en équipe pour prévoir les problèmes de production et d'utilisation qui
pourraient être rencontrés avec le produit ou le service.
10. Éliminez les slogans, les exhortations et les objectifs demandant le zéro défaut ou de
nouveaux niveaux de productivité. De telles exhortations ne font que créer des
relations contradictoires, car la majeure partie des causes de la mauvaise qualité et
de la faible productivité appartiennent au système et se situent donc audelà du
pouvoir de la maind'œuvre.
Approches de la qualité 35
12. Supprimez les barrières qui privent les gens de joie dans leur travail. Cela signifiera
l'abolition de la notation annuelle ou du système de mérite qui classe les gens et
crée de la concurrence et des conflits.
13. Instaurer un programme vigoureux d'éducation et d'autoamélioration.
14. Mettre tout le monde dans l'entreprise au travail pour accomplir la transformation.
La transformation est l'affaire de tous.
ce qu'est le Dow Jones Industrial Average en ce moment, ou ce qu'il a été au cours des 100
dernières années, ne suffit pas à nous dire ce qu'il sera demain.
La psychologie est la science qui traite des processus mentaux et du comportement. Dans
le système de connaissances profondes de Deming, la psychologie est importante car elle fournit
un cadre théorique pour comprendre les différences entre les personnes et fournit des conseils
sur les moyens appropriés de les motiver.
2. Orientation vers le consommateur et non vers le producteur. Ishikawa a mis l'accent sur
la pensée en termes de position d'une autre partie : écoutez leurs opinions et agissez
d'une manière respectueuse de leurs points de vue.
4. Utiliser des faits et des données pour faire des présentations—utilisation des statistiques
méthodes cal.
Machine Translated by Google
Approches de la qualité 37
L'importance des faits doit être clairement reconnue. Les faits, contrairement
aux opinions, peuvent être traduits en données. Si les données sont exactes,
elles peuvent être analysées à l'aide de méthodes statistiques et de modèles
d'ingénierie ou de gestion. Ceci, à son tour, constitue la base des décisions.
De telles décisions s'avéreront, à long terme, meilleures que les décisions
prises sans ce processus, c'estàdire que les décisions produiront des résultats
qui correspondent plus étroitement aux objectifs de la direction.
5. Le respect de l'humanité comme philosophie de gestion – gestion pleinement
participative. Lorsque la direction décide de faire de la qualité à l'échelle de
l'entreprise son objectif, elle doit normaliser tous les processus et procédures,
puis déléguer audacieusement l'autorité à ses subordonnés. Le principe
fondamental d'une gestion réussie est de permettre aux subordonnés d'utiliser
pleinement leurs capacités. Le terme d'humanité implique autonomie et
spontanéité. Les gens sont différents des animaux ou des machines. Ils ont
leur propre esprit et ils pensent toujours. Le management basé sur l'humanité
est un système de management qui laisse s'épanouir le potentiel illimité de
l'être humain.
6. Management transversal.
Du point de vue des objectifs à l'échelle de l'entreprise, les principales
fonctions sont l'assurance qualité, le contrôle des coûts, le contrôle des
quantités et le contrôle du personnel. L'entreprise doit mettre en place des
comités interfonctionnels pour résoudre ces problèmes transversaux. Le
président du comité devrait être un directeur général principal. Les membres
du comité sont choisis parmi ceux qui ont le rang d'administrateur ou audessus.
Comment estce possible? Après tout, le cycle économique normal monte et descend
périodiquement et une entreprise qui est suffisamment dotée en personnel pour les pics de
production est en sureffectif lorsque des ralentissements de production se produisent. Les
Japonais parviennent à assurer la sécurité dans les bons et les mauvais moments de plusieurs façons.
L'une consiste à soustraiter massivement des activités commerciales non essentielles à des
fournisseurs. Il n'est pas rare de trouver jusqu'à 80 % de la valeur du produit fini dans les
matériaux achetés. Une autre consiste à utiliser un important tampon d'employés à temps
partiel. Dans certaines entreprises japonaises, jusqu'à 50 % de leurs employés pendant les
périodes de pointe de la production sont des travailleurs à temps partiel.
La sagesse dominante en Amérique suggère que cette stratégie entraînerait une forte
augmentation de l'incertitude et une baisse globale de la qualité. au Japon, cependant, les
fournisseurs sont très étroitement contrôlés à l'aide d'un système connu sous le nom de
Keiretsu. Les fournisseurs au sein du Keiretsu ont souvent des membres du conseil
d'administration de la société mère et d'autres membres du Keiretsu. Contrairement aux
entreprises américaines, qui ont tendance à traiter sans lien de dépendance avec leurs
fournisseurs, les sociétés mères jouent un rôle très actif dans les affaires de leurs fournisseurs.
Alors qu'aux ÉtatsUnis, une entreprise peut évaluer régulièrement la qualité du produit livré
par un fournisseur, au Japon, la société mère évalue également avec soin la manière dont le
produit a été fabriqué. Le cas échéant, le parent suggérerait des moyens plus efficaces et plus
économiques de fabriquer le produit. Les sociétés mères offrent des contrats plus importants
et à plus long terme que leurs homologues américains, et elles exigent souvent des baisses
de prix régulières. On pourrait s'attendre à ce que le fournisseur devienne "dédié" à sa société
mère, fournissant le produit uniquement à la société mère et non aux concurrents. Une
amélioration continue de la qualité, des coûts et de la livraison est attendue de tous les
fournisseurs japonais, tout comme elle est attendue des employés.
KAIZEN™ (une marque déposée de KAIZEN Institute, Ltd.) est une philosophie
d'amélioration continue, une conviction que tous les aspects de la vie doivent être constamment
améliorés. Au Japon, où le concept est né, KAIZEN s'applique à tous les aspects de la vie,
pas seulement au lieu de travail. En Amérique, le terme est généralement appliqué aux
processus de travail.
L'approche KAIZEN se concentre sur l'amélioration progressive continue qui implique
toutes les parties prenantes. Au fil du temps, ces petites améliorations produisent des
changements tout aussi spectaculaires que l'approche du « grand projet ». KAIZEN ne se
préoccupe pas de changer les systèmes fondamentaux, mais cherche à optimiser les systèmes
existants.
Tous les employés d'une organisation sont responsables de deux aspects de la qualité :
l'amélioration des processus et le contrôle des processus. Le contrôle consiste à agir sur les
écarts pour maintenir un état de processus donné. En l'absence de signaux indiquant que le
processus s'est égaré, le contrôle est réalisé en adhérant aux procédures d'exploitation
standard (SOP) établies. En revanche, l'amélioration nécessite de modifier expérimentalement
Machine Translated by Google
Approches de la qualité 39
Innovation
La haute direction
Superviseurs
Ouvriers Entretien
Figure 3.1 Responsabilité du KAIZEN et rôle du KAIZEN dans l'amélioration des processus
(Imai, 1986).
Une autre contribution assez considérable du Japon d'aprèsguerre est l'ensemble des
pratiques Lean documentées par Taiichi Ohno de Toyota. Les méthodes Lean sont parfois
appelées Toyota Production System (en raison de leurs origines) et incluent des principes et des
méthodologies pour améliorer les temps de cycle et la qualité grâce à l'élimination des déchets
(également connu sous son nom japonais de muda) . Lean fait la distinction entre les activités qui
créent de la valeur et celles qui n'en créent pas, dans le but d'améliorer les temps de cycle et
l'efficacité, de réduire le gaspillage de ressources et
1. Erreurs nécessitant une reprise. (Le retravail fait référence à toute activité requise pour
corriger ou réparer le résultat d'une autre étape du processus. Dans les processus de
service, l'intervention de la direction pour résoudre une plainte d'un client peut être
considérée comme un retravail.)
2. Travailler sans client immédiat, interne ou externe, ce qui entraîne des travaux en cours
ou des stocks de produits finis.
5. Attente des employés alors que le travail inachevé dans un processus en amont est
terminé.
La haute direction • Être déterminé à introduire KAIZEN comme stratégie d'entreprise • Fournir un soutien
les objectifs KAIZEN par le déploiement de politiques et des audits • Construire des
systèmes, des procédures et des structures propices à KAIZEN
Cadres intermédiaires et personnel • Déployer et mettre en œuvre les objectifs KAIZEN selon les instructions du top
gestion par le déploiement de politiques et la gestion interfonctionnelle
• Aider les employés à développer des compétences et des outils pour la résolution de problèmes
• Formuler des plans pour KAIZEN et fournir des conseils aux travailleurs • Améliorer la
communication avec les travailleurs et maintenir un moral élevé • Soutenir les activités en
De Imai (1986).
Si la réponse aux deux questions est « Non », il est probable que l'activité ne
crée pas de valeur aux yeux du client, même s'il est nécessaire d'assurer la qualité
dans le processus actuel. Les activités d'inspection et d'examen, telles que la
surveillance des appels commerciaux ou l'approbation par la direction des
exceptions, sont des exemples de gaspillage sans valeur ajoutée. Ils ne font rien
pour changer le produit (ou le service) et ne sont nécessaires que pour remédier à la mauvaise qualit
Machine Translated by Google
Approches de la qualité 41
… d'une certaine manière, nous avons créé une très bonne norme minimale pour les entreprises
qui ne faisaient rien. ISO 9000 leur a donné une définition mondialement acceptée d'un système
de qualité. D'un autre côté, nous avons fait beaucoup de tort parce que certaines personnes
pensaient que c'était un système de classe mondiale. Et les entreprises qui ont arrêté après avoir
obtenu leur certificat ont eu un réveil brutal lorsqu'elles ont découvert que cela ne signifiait pas
qu'elles étaient compétitives.
Ces sentiments sont partagés par presque tous les experts en qualité. Stapp (2001) a
résumé les problèmes suivants avec les normes antérieures à 2000 :
1. Pas assez d'accent sur l'action préventive. Ce domaine a été victime d'une «
dérive des exigences » depuis la création d'ISO 9001.
L'édition de 1987 contenait peu d'exigences solides pour un système d'action
préventive. Ce problème a été résolu en ajoutant l'exigence à l'édition de
1994, mais les organisations ne pouvaient se conformer qu'à un faible
système d'action préventive.
2. Aucune emphase sur l'amélioration continue. W. Edwards Deming et d'autres
gourous de la profession de la qualité ont constaté qu'il s'agissait d'une
faiblesse fondamentale dans un système de gestion de la qualité conforme
à la norme ISO. Le manque d'attention à l'amélioration continue a permis aux
organisations de se conformer à la lettre des exigences sans vraiment
comprendre le but de la mise en œuvre d'un système de gestion de la qualité
en premier lieu.
Machine Translated by Google
Approches de la qualité 43
4. Pas assez d'attention portée aux ressources humaines. Hormis les exigences en
matière de formation, les deux premières versions d'ISO 9001 traitaient très peu
des ressources humaines et des besoins des employés d'une organisation.
Une organisation pourrait en fait avoir des conditions de travail dangereuses ou
traiter ses employés injustement et être enregistrée en règle selon la norme ISO
9001.
5. Pas assez d'accent sur la communication client. En dehors du domaine de la
résolution des différends lors de la phase de revue des contrats, les deux
premières éditions de la norme ISO 9001 traitaient très peu de l'importance de la
communication client. Les organisations qui avaient développé les systèmes de
gestion de la qualité les plus efficaces ont compris l'importance de maintenir la
communication et la satisfaction client au premier plan de tout ce qu'elles faisaient.
Ces organisations ont particulièrement estimé que les deux premières éditions
manquaient de l'orientation nécessaire.
6. Un système de gestion de la qualité ISO 9000 n'améliore pas la qualité des produits
ou des services. S'attendre à ce qu'ISO 9000 crée directement une amélioration
de la qualité, c'est un peu comme s'attendre à ce que le système comptable crée
directement de la rentabilité. Dans tous les cas, la déception a été largement
exprimée à propos des organisations dotées de systèmes de gestion de la qualité
conformes à la norme ISO produisant des biens ou des services de qualité inférieure.
7. Pas assez d'accent sur la gestion utilisant des données concrètes dans la prise de
décision. Dans les deux premières éditions d'ISO 9001, l'implication de la haute
direction pouvait se limiter à des revues de direction périodiques. Dans certaines
organisations, la haute direction a tenté de renoncer au contrôle du système de
gestion de la qualité en déléguant cette fonction clé de gestion au responsable
qualité. Cette approche non interventionniste de la gestion du système qualité
s'est souvent manifestée par l'absence de collecte et d'analyse cohérentes des
données.
8. Pas bien intégré à ISO 14001. Les organisations impliquées dans des audits de
leur système de management environnemental ont rencontré des difficultés pour
intégrer la conception et l'audit du système entre ISO 14001 et ISO 9001.
9. Trop normatif. La grande variété de biens et de services fournis par les diverses
organisations du monde a entraîné des besoins et des attentes très disparates en
matière de systèmes de gestion de la qualité. Alors que les organisations tentaient
de s'adapter à la famille de normes ISO 9000
Machine Translated by Google
à leurs organisations uniques, ils ont rencontré des difficultés pour parvenir à un «
ajustement ». Les organisations qui ont développé des systèmes de management
de la qualité conformément à la norme ISO 9001 ont eu tendance à présenter des
similitudes entre elles, même si les organisations étaient nettement différentes.
10. Ne convient pas facilement aux entreprises de services. Le libellé des deux premières
éditions de la famille de normes ISO 9000 convenait bien aux organisations de
fabrication, mais nécessitait une certaine imagination pour s'appliquer aux services,
à l'éducation, à la médecine et à d'autres types d'organisations.
Les révisions d'ISO 9000:2000 ont cherché à répondre à ces préoccupations. Plus
particulièrement, une approche systémique est devenue évidente; l'accent a été mis sur la
maîtrise des processus et l'amélioration continue ; et le mandat de responsabilité de la
direction pour la conformité du système qualité a été renforcé. La révision ISO 9000: 2000
(qui n'a pas été substantiellement révisée dans la version 2008), énumère huit principes de
gestion de la qualité formant la base des révisions (Stapp, 2001):
1. Orientation client. L'attention portée aux besoins de vos divers clients, y compris
une tentative continue de répondre à leurs exigences et de dépasser leurs attentes,
doit être considérée comme essentielle aux objectifs de votre organisation.
6. Amélioration continue. Alors que les révisions précédentes d'ISO 9001 traitaient de
la résolution de problèmes par des actions correctives et préventives, la révision de
2000 développe ce concept. Au cœur des objectifs de toute organisation devrait se
trouver un engagement à
Machine Translated by Google
Approches de la qualité 45
s'améliorer dans toutes ses activités : plus grande efficacité, baisse des taux de rejet,
augmentation de la satisfaction client, etc.
7. Approche factuelle de la prise de décision. Aucun de ces principes ne peut être atteint
si l'organisme n'inclut pas de méthodes de collecte d'informations sur ses systèmes
de processus interdépendants. Ces informations deviennent la source pour assurer la
satisfaction continue des clients et mettre en œuvre des efforts d'amélioration continue,
qui résultent tous deux d'une organisation bien gérée.
Alors que les normes précédentes fournissaient une quasiliste de contrôle de 20 éléments
de qualité, ces éléments sont désormais dispersés dans cinq clauses principales, représentant
une approche plus axée sur les systèmes (Stapp, 2001) :
À certains égards, la nouvelle norme permet aux organisations d'atteindre plus facilement
des niveaux de performance plus élevés en adoptant d'autres modèles, tels que les critères
Baldrige, qui peuvent désormais coexister plus facilement dans l'organisation.
des entreprises américaines et de faire connaître les stratégies de qualité réussies. Le secrétaire
au Commerce et l'Institut national des normes et de la technologie (NIST, anciennement le
Bureau national des normes) ont été chargés de développer et d'administrer le prix avec la
coopération et le soutien financier du secteur privé.
Des prix peuvent être décernés chaque année dans chacune des trois catégories suivantes :
entreprises ou filiales de fabrication ; sociétés de services ou filiales ; et les petites entreprises.
Moins de deux prix peuvent être décernés dans une catégorie si les normes élevées du programme
de prix ne sont pas respectées.
Sept domaines sont examinés sur une échelle pondérée, comme indiqué dans le tableau 3.2.
Les pondérations attribuées à chaque catégorie fournissent une indication de la
Direction 120
La haute direction 70
Planification stratégique 85
Stratégie de développement 40
Mobilisation de la maind'œuvre 45
Systèmes de travail 45
Processus de travail 40
Résultats 450
Résultats du produit et du processus 120
Résultats axés sur le client 90
Résultats axés sur la maind'œuvre 80
Approches de la qualité 47
Profil organisationnel :
environnement, relations et situation stratégique
2 5
Planification Accent mis sur la
stratégique maind'œuvre
1 7
Direction Résultats
3 6
Orientation Opérations
client Se concentrer
4
Mesure, analyse et gestion des connaissances
l'importance de chaque élément dans le modèle Baldrige. Les candidats doivent répondre à
un ensemble d'éléments d'examen dans chacune de ces catégories. L'accent est mis sur
l'excellence en affaires et la qualité, comme en témoignent les données quantitatives fournies
par les candidats. Ces critères sont intégrés dans un modèle de gestion, comme le montre la
figure 3.2.
Chaque candidature écrite est évaluée par les membres du jury. Les candidats les mieux
notés sont sélectionnés pour des visites de sites par un panel de juges qui recommandent les
lauréats au secrétaire au commerce parmi les sites candidats visités. Les candidats reçoivent
un résumé écrit des commentaires sur les points forts et les domaines à améliorer dans leur
gestion de la qualité. L'American Society for Quality (ASQ) aide à l'administration du processus
d'examen.
Le comité d'examinateurs est composé d'experts de qualité choisis parmi l'industrie, les
organisations professionnelles et commerciales, les universités, les agences gouvernementales,
les organisations d'éducation et de soins de santé, et parmi les rangs des retraités. Les
personnes sélectionnées répondent aux normes les plus élevées de qualification et de
reconnaissance par les pairs. Les examinateurs doivent participer à un programme de
préparation basé sur les critères, le système de notation et le processus d'examen.
Chaque automne, des candidatures sont sollicitées auprès d'experts de qualité pour servir
d'examinateurs pour l'année suivante.
Machine Translated by Google
•Le prix Deming pour une personne individuelle est décerné à une personne qui fait
preuve d'une réussite significative dans la théorie ou l'application du contrôle de la
qualité.
•Le prix Deming Application est décerné à une entreprise qui réalise l'amélioration la
plus remarquable de ses performances grâce à l'application d'un contrôle statistique
de la qualité. Ce prix est en outre divisé en prix de candidature Deming pour les
petites entreprises et en prix de candidature Deming pour la division.
•Le prix Deming Application Prize for Overseas Companies est décerné à une
entreprise étrangère qui affiche la mise en œuvre méritoire de TQM.
Les candidats doivent soumettre une description détaillée de leur processus TQM.
Le rapport est examiné par le souscomité du prix de candidature composé de professeurs
et d'experts en qualité employés par des organisations à but non lucratif et des entités
gouvernementales (et non des sociétés). Si le souscomité estime que la demande mérite
un examen plus approfondi, une série de vérifications sur place est prévue. Les audits sont
effectués par les membres du souscomité.
Les domaines examinés sont :
• Politique
• Conception organisationnelle
• Éducation/formation •
Information
•Analyse
•Normalisation
Machine Translated by Google
Approches de la qualité 49
•Contrôle
• Assurance qualité •
Efficacité
•Plans futurs
La société est réalisée par le leadership. Les excellents résultats commerciaux sont le
résultat d'excellentes performances dans les domaines précédents.
Un résumé des critères est fourni cidessous (Wendel, 1996).
Critères facilitateurs (comment les résultats sont obtenus)
Approches de la qualité 51
Les entreprises qui ont adopté des pratiques de gestion de la qualité ont connu une amélioration globale
de la performance de l'entreprise. Dans presque tous les cas, les entreprises qui ont utilisé des pratiques
de gestion de la qualité totale ont obtenu de meilleures relations avec les employés, une productivité plus
élevée, une plus grande satisfaction de la clientèle, une part de marché accrue et une rentabilité améliorée.
Qu'estce qui explique les différences dans les résultats ? Il existe un certain nombre de
facteurs qui semblent être liés au succès et à l'échec : L'échec
est probable si les techniques de TQM sont mises en œuvre sans engagement
envers la philosophie sousjacente. La TQM est une activité axée sur le client et axée sur
les processus, mais de nombreuses entreprises qui ont connu des échecs n'étaient pas
axées sur les clients et consacraient trop de ressources à l'étude des processus internes
ou à l'enseignement d'outils de qualité aux employés qui avaient rarement l'occasion de
les utiliser. .
TQM est une activité à l'échelle de l'entreprise. Les entreprises qui ont approché
TQM en renforçant leurs services qualité ont envoyé le mauvais message. Une TQM
réussie disperse la responsabilité de la qualité à ceux qui ne font pas partie du service
qualité. Il s'agit probablement d'une structure d'organisation hiérarchique fonctionnelle
bien définie qui a gravement entravé les tentatives de dispersion de la qualité dans
l'ensemble de l'organisation.
Machine Translated by Google
TQM prend du temps. Le GAO signale que « de nombreux types d'entreprises ont
bénéficié de la mise en place de pratiques spécifiques de gestion de la qualité totale.
Cependant, aucune de ces entreprises n'a récolté ces avantages immédiatement. Laisser
suffisamment de temps pour que les résultats soient atteints était aussi important que de
lancer un programme de gestion de la qualité.
Certains partisans de TQM ont suggéré la nécessité d'un «leader de la qualité totale»
(TQL) (Kendrick, 1992), qui encourage le PDG à être un instrument de changement et à
fonctionner comme une extension du PDG en tant qu'agent de changement (voir Chap. 12).
De ce point de vue, le PDG et le TQL doivent être étroitement liés pour renforcer la crédibilité
du TQL au sein de l'organisation.
Six Sigma
Motorola, sous la direction de Bob Galvin, a développé les principes maintenant connus sous le
nom de Six Sigma dans les années 1980. En 1981, Motorola a entrepris de décupler la qualité
de ses produits et services. Cet effort a conduit à leur acceptation du Malcolm Baldrige
National Quality Award 1988 et à la création du mouvement Six Sigma Quality. Au cours des
premières années du programme, entre 1983 et 1987, Motorola a estimé avoir dépensé 70
millions de dollars pour la formation des employés en matière de qualité. (www .quality.nist.gov/
winners/motorola.htm) Bien que cela représente certainement un engagement important,
leurs avantages ont largement dépassé ces coûts (http:/mu.Motorola.com/Six Sigma/
SixSigma.html) :
Larry Bossidy, PDG d'Allied Signal, a lancé son programme Six Sigma en 1994. En 1998,
ils ont réalisé des économies de coûts de 500 millions de dollars directement attribuables à
leur programme Six Sigma ; en 1999, les économies de coûts sont passées à 600 millions de
dollars. Les avantages totaux dépassent largement ces économies, comme l'explique leur
rapport annuel de 1999 :
… les économies de coûts ne sont qu'une partie de l'histoire. Enchanter les clients et accélérer la
croissance complètent le tableau. Lorsque nous sommes plus efficaces et améliorons le flux de
travail dans toutes les fonctions de l'entreprise, nous apportons une valeur ajoutée considérable à
nos clients, grâce à des solutions de meilleure qualité à des prix plus compétitifs, livrées à temps
et facturées correctement. Cela fait de nous un partenaire commercial plus désirable.
Allied Signal, qui a fusionné avec Honeywell en 1999, a mis l'accent sur la réduction du temps
de cycle. Dans un exemple, deux de leurs usines fonctionnant à plein
Machine Translated by Google
Approches de la qualité 53
la capacité ne pouvait pas satisfaire la demande des clients. La méthodologie Six Sigma a
été utilisée pour augmenter le taux de production de 30 %, avec peu ou pas de coûts
supplémentaires. Mike Bonsignore, PDG d'Honeywell, a souligné la fusion et l'intégration
réussies d'Allied Signal et d'Honeywell (considérées comme une référence des meilleures
pratiques par les experts en fusion) comme un autre exemple d'un processus amélioré par
l'application des outils Six Sigma.
General Electric, sous la direction de Jack Welch, a commencé son parcours Six Sigma
à l'automne 1995 après avoir appris les succès d'Allied Signal par Larry Bossidy, ancien vice
président de GE et ami de Welch. Leurs succès sont peutêtre les mieux documentés :
•En 1996, première année de déploiement de Six Sigma, GE Plastics a réalisé des
bénéfices de 20 millions de dollars. C'est assez impressionnant étant donné que les
coûts de formation de la première année dépassent largement ceux de l'année suivante.
frais.
• GE Aircraft Engines au Canada a réduit les frais de douane et réduit les délais à la
frontière de 50 %, en utilisant les outils Six Sigma pour réduire les défauts dans les
documents nécessaires lors de l'importation de pièces au Canada. (Rapport annuel
1997 de General Electric aux actionnaires) • GE Medical Systems a développé
une nouvelle technologie d'échographie qui permet au personnel médical de
diagnostiquer plus clairement les facteurs de risque contribuant aux accidents
vasculaires cérébraux. Cette technologie est devenue disponible deux ans plus tôt
que possible, en raison du déploiement de GE Design for Six Sigma.
Cette liste d'entreprises bénéficiant du déploiement Six Sigma est loin d'être complète.
De nombreuses autres entreprises ont mis en œuvre les techniques Six Sigma, notamment
les leaders de l'industrie IBM, Bombadier, Asea Brown Boveri, DuPont, Compaq et Texas
Instruments. Comme GE, Motorola et Allied Signal, ces entreprises ont bénéficié du
déploiement de Six Sigma dans l'ensemble de leurs opérations, à la fois dans les applications
de service et de fabrication.
Machine Translated by Google
D'autres exemples de déploiements basés sur les services incluent GMAC Mortgage,
Citibank, JP Morgan et Cendant Mortgage.
Il devrait être clair que Six Sigma ne coûte rien, il rapporte. Un déploiement typique
mettra l'accent sur les projets de formation Six Sigma qui permettent à l'entreprise
d'économiser au moins autant d'argent que le coût de la formation. Les grandes organisations
passeront plusieurs années à élaborer le programme et à former des membres
supplémentaires de l'équipe. Avec un déploiement approprié, ils peuvent s'attendre à récolter
des fruits au fur et à mesure, de sorte que, à mesure que la maturité du programme approche,
les impacts sur le résultat net augmentent.
Un programme Six Sigma correctement déployé résout les problèmes majeurs
rencontrées en TQM (Keller, 2011a) :
Les équipes sont dirigées par des ceintures noires formées en tant que chefs de projet à
temps plein dans le domaine de l'analyse statistique et de la résolution de problèmes, tandis
que le personnel de processus est engagé en tant qu'expert en processus (et formé en tant
que ceinture verte dans les méthodes de base).
• Méthodologie. Une méthodologie standard a été développée pour les projets Six
Sigma : DMAIC, acronyme pour Définir, Mesurer, Analyser, Améliorer et Contrôler.
Lorsque de nouveaux produits ou services sont conçus, nous pouvons également
utiliser l'approche DMADV (remplaçant Améliorer par Conception et Contrôler par
Vérifier), bien que les techniques soient essentiellement les mêmes. L'importance
de la méthodologie réside dans son approche structurée, fondamentalement basée
sur
Machine Translated by Google
Approches de la qualité 55
Définir objective du projet : définir la portée, les buts et les objectifs du projet ; les membres de son
équipe et ses sponsors ; son calendrier et ses livrables.
Définition de processus de niveau supérieur : Définissez les parties prenantes, les entrées et
les sorties et les fonctions générales.
Définition de la métrique : définissez une métrique pour établir de manière fiable des
estimations de processus.
l'état actuel du processus, qui devrait vérifier les hypothèses de l'étape Définir. Déterminer si
le processus est sous contrôle statistique.
Améliorer/Concevoir Proposer une ou plusieurs solutions à parrainer ; Quantifier les avantages de chacun ;
Parvenir à un consensus sur la solution.
commence au sommet, avec la formation des cadres clés en tant que champions
Six Sigma. Au niveau de la direction, ils pilotent le programme pour atteindre les
objectifs stratégiques. Au niveau opérationnel, ils allouent des ressources aux
équipes de projet, fournissant l'autorité, les ressources et l'appréciation approfondie
des besoins de l'entreprise nécessaires à la réussite du projet. Une fois que les
champions ont été formés et que les critères de sélection des projets ont été
établis, les ceintures noires sont formées juste à temps à l'application du DMAIC,
y compris les compétences en gestion du changement, la résolution de problèmes,
les principes et les méthodes statistiques et lean. Les ceintures vertes sont
sélectionnées dans des domaines de processus critiques et formées pour servir
d'experts en processus sur des projets d'amélioration de processus spécifiques.
L'objectif ultime est une prise de décision basée sur les données à tous les niveaux de
l'organisation, axée sur les avantages pour leurs trois groupes de parties prenantes : les
clients, les actionnaires et les employés.
Machine Translated by Google
CHAPITRE 4
Axée sur le client
Organisations
Machine Translated by Google
Machine Translated by Google
Hiérarchies aplaties. Lorsque les clients sont au centre des préoccupations, un plus
grand pourcentage des ressources est directement ou indirectement impliqué avec
les clients (voir Figure 4.2), ce qui réduit le nombre de couches bureaucratiques dans
la structure organisationnelle. Les employés seront habilités à prendre des décisions
qui résolvent immédiatement les problèmes des clients, réduisant ainsi le besoin
d'une surveillance structurée. La hiérarchie fonctionnelle traditionnelle, avec des
départements axés sur des fonctions singulières, est mieux remplacée par des
processus horizontaux ou des structures basées sur les produits qui peuvent répondre
rapidement aux besoins des clients.
Des processus adaptables. Les demandes des clients sont parfois imprévisibles,
nécessitant de l'adaptabilité et des risques potentiels. Les organisations axées
sur le client créent des systèmes adaptables qui suppriment les obstacles
bureaucratiques tels que les mécanismes d'approbation formels ou la dépendance
excessive aux procédures écrites. Les employés sont encouragés à agir selon
leur propre jugement. Si les employés de l'organisation sont syndiqués, l'évolution
des rôles nécessitera un partenariat syndical dans le processus de transformation.
Les représentants syndicaux devraient être impliqués dans toutes les phases de
la transformation, y compris la planification et l'élaboration de la stratégie.
Communication efficace. Au cours de la transformation, la tâche principale de
l'équipe de direction est la commercialisation claire, cohérente et sans
ambiguïté de sa vision auprès de l'organisation.
59
Machine Translated by Google
Figure 4.1 Vues évolutives du rôle de la qualité dans l'entreprise (Kotler, 1991 avec permission).
Clients
Cadres intermédiaires
La
Clients haute direction
Clients
Figure 4.2 L'organigramme centré sur le client (Kotler, 1991 avec permission).
Machine Translated by Google
Qualité des produits et services –Fourni selon les exigences –Fourni selon le client
organisationnelles exigences et besoins
Approche de gestion des –Concentrezvous sur les erreurs et les défauts –Concentrezvous sur les erreurs et les défauts
Orientation vers les personnes –Les gens sont la source de –Les gens sont la plus grande
problèmes et sont des fardeaux ressource d'une organisation
pour l'organisation
Base de décision – Axé sur le produit Axée sur la clientèle
fabrication –Gestion par avis –Gestion par les données
Tableau 4.1 Organisations traditionnelles par rapport aux organisations axées sur le client
Machine Translated by Google
Le comportement des hauts dirigeants est porteur d'une immense symbolique qui
peut rapidement saper le message ciblé et détruire toute crédibilité. À l'inverse, un
comportement qui démontre clairement l'engagement envers la vision peut aider à
faire passer le message : « Ils sont sérieux cette fois ». Les dirigeants doivent s'attendre
à consacrer au moins 50 % de leur temps à la communication pendant la transition.
Mesurer les résultats. Il est important de vérifier que vous tenez vos promesses envers
les clients, les actionnaires et les employés. Ces mesures forment la base des efforts
d'amélioration et doivent inclure les processus internes ainsi que les résultats externes.
Les données doivent être disponibles rapidement pour les personnes qui les utilisent
et être faciles à comprendre.
Récompenser les employés. Les employés doivent être traités comme des partenaires
dans l'effort d'amélioration et recevoir une rémunération adéquate et juste pour faire
leur travail. Récompenser les individus avec des incitations financières peut être
manipulateur, ce qui implique que l'employé ne ferait pas le travail sans la récompense,
ce qui tend à détruire le comportement même que vous cherchez à encourager (Kohn,
1993). La reconnaissance d'une performance ou d'un effort exceptionnel doit être faite
d'une manière qui encourage la coopération et l'esprit d'équipe, comme les fêtes et les
expressions publiques d'appréciation.
Les dirigeants doivent assurer l'équité : par exemple, les primes de gestion et les
réductions de salaire des travailleurs ne font pas bon ménage. Les incitations financières
doivent être réparties équitablement dans l'ensemble de l'organisation, car la plupart
des améliorations sont réalisées grâce aux actions collectives de l'organisation, plutôt
qu'à quelques personnes seulement.
PARTIE II
Planification intégrée
Chapitre 5
Planification stratégique
chapitre 6
Comprendre le client
produits et procédés nécessaires pour répondre aux besoins Attentes et besoins
des clients. Cela implique un certain nombre d'étapes universelles chapitre 7
La planification de la qualité est l'activité de développement de la
(Juran et De Feo, 2010): Analyse comparative
chapitre 8
1. Définir les clients.
Organisationnel
2. Déterminez les besoins du client. Évaluation
Comme Juran l'a voulu et l'expérience l'a montré, le terme universel implique que les
activités sont appliquées dans toute organisation à différents niveaux. Les discussions dans
les chapitres suivants portent principalement sur la planification au niveau de l'entreprise
pour atteindre la rentabilité et le succès organisationnel grâce à l'orientation client. Les
concepts seront appliqués de la même manière aux niveaux des processus et des produits
dans la partie IV pour développer et améliorer les produits et services axés sur le client.
Machine Translated by Google
Machine Translated by Google
CHAPITRE 5
Planification stratégique
Machine Translated by Google
Machine Translated by Google
Vision organisationnelle
La réponse à ces questions amène une organisation à développer des énoncés de
valeur et de mission pour expliquer les objectifs généraux (ou parfois assez spécifiques)
de l'organisation. L'organisation réussie survivra aux personnes qui sont actuellement
ses membres. Ainsi, la mission de l'organisation qui réussit doit fournir une vision à long
terme, décrivant pourquoi l'organisation existe. Aucune organisation n'existe simplement
pour "faire du profit". Les bénéfices reviennent aux organisations qui produisent une
valeur supérieure à leurs coûts ; c'estàdire que les profits sont un effet de l'existence
productive, pas une cause. Considérez ces exemples :
67
Machine Translated by Google
68 Planification intégrée
mettre leurs produits à la disposition des peuples du monde au coût le plus bas
possible (Mintzberg et Quinn, 1991).
On pourrait aller plus loin et se demander pourquoi l'organisation a été créée pour remplir
sa mission. La réponse, du moins au début, pourrait résider dans les valeurs du fondateur de
l'organisation. Henry Ford, pour une raison quelconque, estimait qu'il était important (c'està
dire valorisé) de fournir à l'agriculteur un moyen de transport motorisé abordable et fiable. De
plus, pour susciter la coopération des membres de l'organisation, les valeurs de l'organisation
doivent être compatibles avec les valeurs de ses membres.
Développer une image lucide de cette organisation aidera le leader à voir comment il doit
procéder avec son devoir premier de transformer l'organisation actuelle. Sans une telle image
dans son esprit, l'exécutive conduira l'organisation à travers un labyrinthe aux mille impasses.
Inversement, avec sa vision pour la guider, le processus de transformation suivra son cours.
Cela ne veut pas dire que la transformation est toujours « facile ». Mais lorsqu'il y a un leader
avec une vision, c'est comme si l'organisation suivait un éclaireur expert à travers un territoire
hostile. Le chemin est clair, mais le voyage est encore difficile.
Lorsqu'un individu a luimême une vision d'où il veut aller, il peut poursuivre directement
cette vision. Cependant, lorsqu'il s'agit d'une organisation, il ne suffit pas d'avoir une vision
claire. Le leader doit communiquer la vision aux autres membres de l'organisation.
Communiquer une vision est une tâche très différente de la communication d'instructions ou
d'idées concrètes.
Les visions organisationnelles qui incarnent des valeurs abstraites sont nécessairement
de nature abstraite. Pour transmettre efficacement la vision aux autres, le leader doit convertir
les abstractions en concrets. Une façon d'y parvenir est de vivre la vision. La dirigeante
démontre ses valeurs dans chaque action qu'elle entreprend, chaque décision qu'elle prend,
les réunions auxquelles elle assiste ou qu'elle ignore, lorsqu'elle accorde une attention
particulière et lorsqu'elle griffonne distraitement sur son blocnotes. Les employés qui essaient
de comprendre la vision du leader porteront une attention particulière au comportement du
leader.
Une autre façon de communiquer des idées abstraites est de raconter des histoires. Dans
les organisations, il y a un flux constant d'événements. Les clients rencontrent l'organisation
à travers les employés et les systèmes, les fournisseurs rencontrent les ingénieurs, littéralement
des milliers d'événements ont lieu chaque jour. De temps en temps un événement se produit
Machine Translated by Google
Planification stratégique 69
qui capture l'essence de la vision du leader. Un commis fournit un service client exceptionnel,
un ingénieur prend un risque et commet une erreur, un fournisseur maintient la ligne en
marche grâce à un effort considérable. Ce sont des exemples concrets de ce que le dirigeant
veut que la future organisation devienne. Elle devrait répéter ces histoires aux autres et
reconnaître publiquement les personnes qui ont fait les histoires.
Elle devrait également créer ses propres histoires, même si cela nécessite de mettre en scène un événement.
Il n'y a rien de malhonnête à créer une situation avec une signification symbolique puissante
et à l'utiliser pour communiquer une vision. Par exemple, Nordstrom raconte l'histoire d'un
vendeur qui a accepté le retour d'un pneu défectueux par un client.
Cette histoire a une énorme signification symbolique car Nordstrom ne vend pas de pneus !
L'histoire illustre la politique de Nordstrom consistant à permettre aux employés d'utiliser leur
propre jugement dans toutes les situations, même s'ils commettent des « erreurs », et à faire
un effort supplémentaire pour satisfaire les clients. Cependant, il est douteux que l'événement
se soit jamais produit. Ceci n'est pas pertinent. Lorsque les employés entendent cette histoire
pendant leur formation d'orientation, le message est clair. L'histoire remplit son objectif de
communiquer clairement une abstraction autrement déroutante.
Stratégie de développement
Après avoir précisé les objectifs de l'entreprise via les énoncés de vision et de mission,
l'activité suivante de la planification stratégique consiste à développer les stratégies (c'està
dire le plan) pour atteindre ces objectifs. Pourtant, la planification doit aller audelà de la
simple proposition de nouvelles choses que l'entreprise peut faire à l'avenir. Nous devons
également demander à chaque activité, produit, processus ou marché actuel : « Si nous ne
le faisions pas déjà, commencerionsnous ? » Si la réponse est « Non », l'organisation doit
élaborer des plans pour cesser de le faire dès que possible.
La planification vise à faire évoluer l'organisation : évolution des modes de travail,
évolution des systèmes pour répondre aux futurs besoins des clients.
Le plan montre comment allouer les ressources rares et intègre la responsabilité dans le
plan. Des délais sont nécessaires, de même que des retours sur les progrès et la mesure du
résultat final.
Une base traditionnelle de la formation de la stratégie est la comparaison des forces et
faiblesses internes aux opportunités et menaces externes (SWOT).
Comme le montre la figure 5.1, la stratégie se construit à l'intersection d'une appréciation
externe des menaces et opportunités auxquelles une organisation est confrontée dans son
environnement, considérées en termes de facteurs clés de succès, et d'une appréciation
interne des forces et faiblesses de l'organisation. l'organisation ellemême, distillée en un
ensemble de compétences distinctes. Les opportunités extérieures sont exploitées par les
forces internes, tandis que les menaces sont évitées (ou traitées) et les faiblesses contournées
(ou traitées). Les opportunités et les menaces sont identifiées par la compréhension des
clients et de leurs marchés. Les forces et les faiblesses internes sont évaluées au moyen
d'évaluations organisationnelles rigoureuses. (Chacun de ces éléments est discuté en détail
dans les chapitres qui suivent.)
Prise en considération, tant dans la création des stratégies que dans leur
Machine Translated by Google
70 Planification intégrée
Évaluation Évaluation
externe interne
Menaces et Forces et
opportunités dans faiblesses de
l'environnement l'organisation
Création
Valeurs
Responsabilité sociale de stratégie managériales
Évaluation
et choix de
stratégie
Mise en œuvre de
la stratégie
évaluation ultérieure, sont les valeurs du leadership ainsi que sa responsabilité sociale.
Une fois qu'une stratégie a été choisie, elle est mise en œuvre dans le cadre d'un projet
d'amélioration transversal en utilisant les méthodes d'amélioration décrites dans la partie IV.
Le modèle d'amélioration DMAIC structuré, une amélioration du planfaireétudieragir de
Shewhart, renforce efficacement l'adhésion des groupes de parties prenantes ainsi que des
principaux cadres intermédiaires.
Les projets sont définis pour atteindre la vision établie par l'équipe dirigeante, avec la
compréhension des besoins et des attentes des clients (voir Chap. 6). Les évaluations
organisationnelles, ainsi que les données des clients, constituent la base de l'étape de
mesure du DMAIC. Les principaux moteurs des résultats sont établis à l'étape d'analyse.
Une stratégie d'amélioration est mise en œuvre dans la phase Améliorer et continuellement
vérifiée dans la phase Contrôle.
Les stratégies plus importantes sont exécutées principalement au niveau de la direction.
La mise en œuvre d'initiatives à l'échelle de l'organisation à l'étape Améliorer peut
Machine Translated by Google
Planification stratégique 71
être mieux divisés en projets plus petits alignés sur une stratégie spécifique et exécutés à des
niveaux inférieurs de l'organisation.
1. Classique. Cette approche traditionnelle de la définition de plans à plus long terme devrait
être limitée aux organisations dans des environnements assez prévisibles et matures.
Les exemples incluent l'exploration et la production pétrolières, le fret aérien/la logistique,
les boissons, les services publics, les produits en papier et le tabac.
2. Adaptatif. Cette approche flexible favorise l'expérimentation pour développer une stratégie
dans des environnements imprévisibles dans lesquels vous avez peu de capacité à
changer. De nombreux marchés d'aujourd'hui changent continuellement en raison de la
concurrence, de l'innovation et/ou de l'incertitude économique, rendant certains aspects
d'un plan stratégique obsolètes ou non pertinents après peutêtre quelques mois
seulement. Dans ces environnements, les entreprises doivent devenir des organisations
apprenantes, intégrant essentiellement leur planification stratégique aux opérations pour
développer rapidement puis suivre les résultats de chaque itération stratégique. Les
exemples incluent la biotechnologie, le matériel de communication, la vente au détail
spécialisée et le matériel informatique.
3. Mise en forme. Lorsque l'environnement est imprévisible, mais que vous avez une
certaine capacité à modifier l'environnement, une stratégie de mise en forme est
recommandée. Dans ce cas, l'organisation développe une stratégie qui cherche à
influencer le marché, par exemple par l'innovation.
Cela peut perturber un marché stagnant ou un marché fragmenté, mais dans les deux
cas l'objectif est de redéfinir le marché à l'avantage de l'entreprise. Les auteurs citent
Facebook comme exemple de déploiement réussi de la stratégie de mise en forme. Leur
capacité à dépasser un concurrent initialement dominant dans MySpace a été complétée
par la redéfinition de l'espace des médias sociaux avec des applications, telles que des
jeux. D'autres exemples incluent le développement de logiciels, les compagnies
aériennes, la vente au détail par catalogue, les services aux consommateurs et les
services sans fil.
72 Planification intégrée
Malheureusement, les auteurs ont noté que la plupart des organisations interrogées
utilisaient les styles stratégiques visionnaires (40 %) ou classiques (35 %), qui s'appuient
sur des marchés prévisibles, alors que les hypothèses de prévisibilité étaient clairement
injustifiées (Reeves et al., 2012).
Le but ultime à cette étape est de comprendre les limites de chaque option
avant le début de l'analyse.
4. Identifiez les obstacles. Déterminez quelles conditions sont les moins probables.
L'objectif de cette étape est d'identifier les conditions les plus gênantes pour les
membres de l'équipe : quelles conditions seriezvous le plus susceptible de
vous préoccuper d'atteindre ?
5. Essais de conception. Pour chaque condition barrière clé, construisez des tests
qui, une fois mis en œuvre, convaincraient l'équipe que les conditions peuvent
être remplies. Quelle est la norme de preuve requise pour que l'équipe
Machine Translated by Google
Planification stratégique 73
affirmer, avec un degré de confiance acceptable, que la condition peut être remplie ? Cela peut
impliquer des enquêtes auprès des clients ou des fournisseurs, ou des discussions honnêtes
avec des clients ou des fournisseurs clés, selon la confiance de l'équipe dans la condition. Les
auteurs suggèrent que les membres de l'équipe les plus sceptiques pour une option donnée
soient chargés de développer les tests pour cette option.
6. Effectuez les tests. Mettre en œuvre les tests définis à l'étape précédente. Les auteurs
recommandent de commencer par la condition barrière dans laquelle l'équipe a le moins
confiance, en partant du principe que la condition peut être rapidement rejetée sans tests
supplémentaires.
Ils appellent cela « l'approche de l'homme paresseux » et la citent comme un moteur clé pour
réduire les coûts et l'effort de l'analyse.
7. Faites votre choix. L'option avec le moins d'obstacles clés apparaîtra naturellement comme
l'option préférée par l'équipe.
Lafley, ancien président et chef de la direction de Proctor & Gamble, cite l'utilisation de l'approche
basée sur les possibilités pour la prise de décision stratégique dans la transformation par P&G de la
gamme de produits Olay en une marque de « prestige » haut de gamme, représentant finalement
2,5 milliards de dollars de ventes annuelles. . Lors de l'examen de l'option de commercialiser un produit
de prestige auprès d'une clientèle plus jeune via des canaux de grande diffusion, les conditions nécessaires
suivantes ont été définies (Lafley et al., 2012) :
•Consommateurs. Il existe un sweet spot en matière de prix qui incitera les consommateurs de
masse à payer une prime et les acheteurs de prestige à acheter dans le canal de masse.
structure de coûts qui lui permet d'atteindre le juste prix. •Concurrents. En raison d'un conflit de
canaux, les concurrents de prestige n'essaieront pas de suivre
Olay dans le segment masstige ; et les concurrents de masse auront du mal à suivre car le prix le
plus bas est couvert par la gamme de base Olay Complete.
Machine Translated by Google
74 Planification intégrée
Dans cet exemple, Lafley cite le sweet spot de tarification comme le problème le plus
difficile. L'analyse s'est concentrée sur l'évaluation des niveaux de prix auxquels les
consommateurs percevaient le prestige mais étaient disposés à acheter sur le marché de
masse. Ce défi particulier, et l'analyse résultant des conditions basées sur les possibilités,
se sont avérés les plus influents pour assurer le succès de la stratégie.
Les auteurs notent les principales différences dans l'approche basée sur les possibilités
par rapport à une planification stratégique plus traditionnelle :
Merci à H. William Dettmer de Goal Systems International pour la rédaction de cette section.
Machine Translated by Google
Planification stratégique 75
L'approche systémique
Qu'entendonsnous par gestion des systèmes ? Tout au long du XXe siècle, la pensée
managériale était largement orientée vers l'activité. Au début des années 1900, la gestion
scientifique de Frederick Taylor (Taylor, 1947) se concentrait sur la division et la
subdivision du travail en tâches ou activités discrètes qui pouvaient être étroitement
surveillées, mesurées et «ajustées» pour produire la performance la plus efficace de
chaque activité. Dans la seconde moitié du siècle, l'accent s'était quelque peu élargi pour
englober les processus de gestion composés de plusieurs activités. À un certain niveau,
ces processus peuvent devenir assez vastes et complexes, comme un processus de
production, un processus d'achat ou un processus de marketing et de vente. Une façon
de gérer la complexité est de la compartimenter, de la découper en « morceaux gérables
». Les organisations le font généralement en créant des départements fonctionnels.
Chaque département est responsable d'une fonction qui fait partie de l'ensemble du
système.
On pourrait même dire que ces « parties » sont en fait des processus individuels.
C'est une manière ordonnée d'aborder la question de la complexité.
Tout au long des années 1980 et au début des années 1990, l'ascension fulgurante du
mouvement de la qualité a renforcé l'idée que le succès résidait dans le raffinement continu
des processus. L'objectif ultime est devenu "Six Sigma", un niveau de performance sans
défaut jamais vu 20 ans auparavant. Incontestablement, les organisations commerciales
et non commerciales avaient besoin de cette orientation. La mauvaise qualité des produits
(qui est généralement le résultat d'une qualité de processus défectueuse) peut faire tomber
une organisation plus rapidement que n'importe quoi d'autre. Mais de nombreuses
entreprises, malgré des efforts herculéens et des dépenses importantes, ont été déçues
de constater que leur retour sur investissement n'était pas ce qu'elles espéraient. L'idée
que « si vous construisez une meilleure souricière, le monde viendra jusqu'à votre porte »
a fonctionné exceptionnellement bien pour les entreprises dont la contrainte primordiale
était la qualité des produits. Pourtant, pour d'autres entreprises, la stratégie semblait
quelque peu décevante.
Machine Translated by Google
76 Planification intégrée
Pensée systémique
Ce que ces entreprises n'ont pas compris, c'est qu'un niveau supérieur de réflexion était
nécessaire : la pensée systémique. Une fois que la qualité des processus individuels est
raisonnablement bien alignée, d'autres facteurs apparaissent et méritent l'attention.
Considérez l'analogie d'une équipe de football.
Les grands sports professionnels consacrent beaucoup de temps et d'argent à
l'amélioration des processus, même s'ils ne le voient probablement pas de cette façon.
Un propriétaire d'équipe peut dépenser des millions pour un contrat avec un quartarrière
vedette. En appliquant un talent naturel, ils s'attendent à « améliorer le processus de
réussite ». Mais dans de nombreux cas, les touchés n'apparaissent pas, malgré les
sommes énormes dépensées pour les quarts vedettes. À un moment donné dans «
l'analyse des effets du mode d'échec du processus », les entraîneurs découvrent qu'il
est impossible pour ce quartarrière très apprécié d'effectuer des passes à plat sur le
dos. Ils constatent que la ligne offensive doit être renforcée. Ou un bon blocage est
nécessaire, ou un meilleur plan de match, ou n'importe quel nombre d'autres facteurs.
Le fait est que toute organisation, comme une équipe de football, réussit ou échoue
en tant que système complet, et non en tant qu'ensemble de parties ou de processus
isolés et indépendants. De la même manière qu'un clip cinématographique nous en dit
beaucoup plus sur une situation qu'un instantané instantané, la pensée systémique nous
donne une image plus claire de l'ensemble de la dynamique organisationnelle.
Dans The Fifth Discipline (Senge, 1990), Peter Senge propose que le seul avantage
concurrentiel durable vient de la transformation d'une entreprise en une « organisation
apprenante ». Les clés pour y parvenir, soutient Senge, sont cinq disciplines de base que
toute organisation qui s'efforce de réussir doit maîtriser : la pensée systémique, la maîtrise
personnelle, les modèles mentaux, la construction d'une vision partagée et l'apprentissage
en équipe. Devinez lequel il considère comme le plus important. Bien qu'il le numérote au
cinquième rang, il l'énumère en premier, et il a intitulé son livre après lui.
Planification stratégique 77
système pour produire le meilleur résultat système . Autrement dit, une fois les canards
alignés, il s'agit de les faire marcher au pas ensemble. Nous appelons cela l'optimisation
du système.
Dans quelle mesure estil important d'optimiser le système plutôt que ses composants ?
Deming luimême a répondu à cette question dans The New Economics for Industry,
Government, Education (Deming, 1993, pp. 53, 100). Il a observé :
L'optimisation est le processus d'orchestration des efforts de tous les composants vers la
réalisation de l'objectif déclaré. L'optimisation est le travail de la direction. Tout le monde gagne
avec l'optimisation. Rien de moins que l'optimisation du système entraînera même une perte
pour chaque composant du système. Tout groupe devrait avoir pour objectif l'optimisation du
système plus large dans lequel le groupe opère. L'obligation de toute composante est de
contribuer de son mieux au système, et non de maximiser sa propre production, ses bénéfices
ou ses ventes, ni aucun autre élément concurrentiel. mesure. Certains composants peuvent eux
mêmes fonctionner à perte afin d'optimiser l'ensemble du système, y compris les composants
qui subissent une perte.
Il s'agit d'une mise en accusation puissante de la façon dont la plupart des entreprises
font des affaires depuis l'époque de Frederick Taylor, sans exclure l'ère des « lumières de
la qualité » des années 1980 et 1990. Essentiellement, Deming a déclaré que maximiser
l'efficacité locale partout dans un système n'est pas nécessairement une bonne chose à
faire.
Il s'agit ici de « chaînes » d'actions. Qu'estce qui détermine la performance d'une chaîne ? La
force de la chaîne est déterminée par la force de son maillon le plus faible. Combien y atil de
maillons faibles dans une chaîne ? Tant que les fluctuations statistiques empêchent les maillons
d'être totalement identiques, il n'y a qu'un seul maillon faible dans une chaîne.
Goldratt poursuit en suggérant qu'il existe autant de contraintes dans un système qu'il
existe de véritables chaînes indépendantes. En réalité, dans la plupart des systèmes, il
n'y a pas beaucoup de chaînes véritablement indépendantes. Le dictionnaire (Barnes et
Noble, 1989) définit le système comme :
78 Planification intégrée
Types de contraintes
Identifier et briser les contraintes devient un peu plus facile s'il existe une manière
ordonnée de les classer. De la discussion précédente, nous savons que les
contraintes du système peuvent être considérées comme physiques ou politiques. Au
sein de ces deux grandes catégories, il existe sept types de base (Schragenheim et
Dettmer, 2000, Chap. 4) :
Machine Translated by Google
Planification stratégique 79
à obtenir les matériaux requis dans la quantité ou la qualité nécessaire pour satisfaire la
demande de produits ou de services. • Fournisseur/vendeur. Manque de fiabilité
(incohérence) d'un fournisseur ou d'un vendeur, ou délai excessif pour répondre aux
commandes. •Financier. Flux de trésorerie insuffisant pour soutenir une
opération. Par exemple, une entreprise qui ne peut pas produire plus tant que le paiement n'a
pas été reçu pour le travail précédemment effectué, car elle pourrait avoir besoin de ce
revenu pour acheter des matériaux pour une commande ferme en attente.
Remarque : Dans la plupart des cas, une stratégie est très probablement à l'origine d'une
contrainte de l'une des six premières catégories. Pour cette raison, la théorie des contraintes accorde
une très grande importance à l'analyse des politiques, qui sera discutée plus en détail dans « Le
processus de pensée logique », cidessous.
Tous ces types ne s'appliquent pas à tous les systèmes. Les contraintes de matériel et de
fournisseur/vendeur peuvent ne pas s'appliquer aux organisations de services. Les contraintes du
marché ne sont généralement pas pertinentes dans les systèmes à but non lucratif, tels que les
agences gouvernementales. Mais les contraintes liées aux ressources, aux finances, aux
connaissances/compétences et aux politiques peuvent potentiellement affecter tous les types d'organisations.
1. Chaque système a un objectif et un ensemble fini de conditions nécessaires qui doivent être
satisfaites pour atteindre cet objectif. Un effort efficace pour améliorer les performances du
système n'est pas possible sans une compréhension claire et un consensus sur ce que
sont l'objectif et les conditions nécessaires.
2. La somme des optima locaux d'un système n'est pas égale à l'optimum global du système.
En d'autres termes, le système le plus efficace ne vient pas de la maximisation de l'efficacité
de chaque composant du système individuellement, sans tenir compte de son interaction
avec les autres composants.
Machine Translated by Google
80 Planification intégrée
3. Très peu de variables, peutêtre une seule, limitent les performances d'un système à un
moment donné. Cela équivaut au concept de "maillon le plus faible" évoqué
précédemment.
4. Tous les systèmes sont soumis à une relation de cause à effet logique. Il y a des
conséquences naturelles et logiques à toute action, décision ou événement. Pour les
événements qui se sont déjà produits, ces conséquences peuvent être cartographiées
visuellement pour faciliter l'analyse de la situation ou du problème. Pour les décisions
qui n'ont pas encore été prises ou qui sont envisagées, les résultats de ces actions,
décisions ou événements peuvent être projetés logiquement dans le futur et également
cartographiés visuellement.
Cependant, avoir la rentabilité comme objectif ne suffit pas. Pour qu'une organisation soit
rentable et que ces bénéfices augmentent de manière constante, il existe un ensemble discret de
conditions nécessaires qu'elle doit satisfaire. Certains d'entre eux seront uniques au secteur dans
lequel l'entreprise évolue, d'autres seront génériques pour toutes les entreprises à but lucratif.
Mais une chose que toutes les organisations auront en commun : il y aura très peu de ces
conditions nécessaires, peutêtre moins de cinq.
Les conditions nécessaires sont des facteurs critiques de succès. Ils sont en fait nécessaires
pour atteindre l'objectif. Par exemple, la satisfaction de la clientèle est sans aucun doute
essentielle à la progression continue vers un objectif financier. Employé
Machine Translated by Google
Planification stratégique 81
satisfaction peut être considérée comme nécessaire pour atteindre l'objectif. Inclure
des conditions nécessaires comme cellesci dans la hiérarchie des objectifs lui donne
de la crédibilité, l'identifiant comme quelque chose qui n'est pas seulement temporaire
mais qui doit être satisfait tout au long de la vie de l'organisation. La figure 5.2 illustre
une hiérarchie type objectif/condition nécessaire.
Les conditions nécessaires diffèrent de l'objectif. Alors que l'objectif luimême n'a
généralement pas de limite (il est normalement formulé de telle manière qu'il est peu
probable qu'il soit jamais pleinement réalisé), les conditions nécessaires sont plus
finies. Ils peuvent être caractérisés comme une situation « zéro ou un » : c'est là ou ce
n'est pas (un état « oui ou non »). Par exemple, une organisation à but lucratif pourrait
Conditions
nécessaires Part de
marché dominante
Satisfaction
Technologie « de
du client
pointe »
Rapidité
de
développement, réponse
Matériel,
logiciel de
haute qualité
Maind'œuvre de haute
qualité, sûre et satisfaite
82 Planification intégrée
veulent gagner autant d'argent que possible, sans limites. Mais la sécurité et la satisfaction
des employés, en tant que conditions nécessaires, doivent être établies à un niveau minimum
bien défini. L'objectif d'une entreprise à but lucratif ne peut s'attendre à satisfaire ses employés
sans limite, mais l'organisation doit reconnaître la nécessité d'atteindre un certain niveau de
sécurité et de satisfaction des employés comme une exigence minimale pour atteindre
l'objectif. Cela ne veut pas dire que toutes les conditions nécessaires sont de nature zéro ou
un. Certains, comme la satisfaction du client, peuvent être augmentés, et cela devrait améliorer
la progression vers l'objectif. Mais même des conditions nécessaires aussi variables ont des
limites pratiques.
Planification stratégique 83
84 Planification intégrée
Cependant, même si aucune nouvelle commande n'entre dans le système, les chefs
d'atelier aiment souvent continuer à travailler, afin de maintenir leur efficacité à un niveau élevé.
Mais si les noncontraintes d'un système de production sont correctement subordonnées,
la matière ne doit pas être libérée. Le processus de libération des matériaux doit être
subordonné aux besoins de la contrainte du système, et non à des mesures d'efficacité
arbitraires. Le maintien de la commande dans l'entrepôt fait partie du processus de
subordination. La libération des matériaux qui ne sont pas immédiatement nécessaires
pour une commande ferme doit être traitée comme une priorité inférieure à la libération
rapide des matériaux dont la contrainte aura bientôt besoin pour répondre à une exigence
précise du client.
La subordination sert à concentrer les efforts du système sur les choses qui l'aident à
maximiser sa performance actuelle. Les actions qui contredisent la logique de subordination
doivent être supprimées.
Il est possible qu'après avoir terminé la troisième étape, la contrainte du système soit
brisée. Si c'est le cas, cela devrait être assez évident. La sortie au niveau du système fera
généralement un bond positif, et une autre partie du système pourrait commencer à
ressembler à un « goulot d'étranglement ». Si tel est le cas, revenez à la première étape
et recommencez les cinq étapes de mise au point. Identifiez quel nouveau facteur est
devenu la contrainte du système, déterminez comment exploiter au mieux ce composant
et subordonnez tout le reste.
4. Élevez. Cependant, si, après avoir terminé l'étape 3, la contrainte d'origine est toujours la
contrainte du système, à ce stade, le mieux dont vous pouvez être assuré est que vous
en tirez le maximum de productivité possible il n'est pas possible pour le système de
faire mieux qu'il ne l'est sans action de gestion supplémentaire. En prenant cette mesure,
il est nécessaire de passer à la quatrième étape pour obtenir de meilleures performances
du système. Cette étape consiste à évaluer d'autres moyens d'élever la contrainte (ou les
contraintes, dans le cas peu probable où il y en aurait plus d'une). Élever signifie «
augmenter la capacité ».
Si la contrainte est une ressource interne, cela signifie obtenir plus de temps pour que
cette ressource fasse un travail productif. Certaines alternatives typiques pour ce faire
pourraient être d'acquérir plus de machines ou de personnes, ou d'ajouter des heures
supplémentaires ou des équipes jusqu'à ce que les 24 heures de la journée soient
utilisées. Si la contrainte est la demande du marché (manque de ventes), l'élévation peut
signifier investir dans une campagne publicitaire ou l'introduction d'un nouveau produit
pour augmenter les ventes. Dans tous les cas, s'élever signifie invariablement "dépenser
plus d'argent pour gagner plus d'argent".
Machine Translated by Google
Planification stratégique 85
Notez l'utilisation du mot évaluer dans cette étape. Ce mot est souligné pour
une bonne raison. D'après les exemples précédents acheter plus
d'équipement ou ajouter des quarts de travail ou des heures supplémentaires
il devrait être clair qu'il existe plus d'une façon d'écorcher un chat. Certaines
alternatives sont moins chères que d'autres. Certaines alternatives sont plus
attrayantes pour des raisons qui ne peuvent pas être mesurées directement
en termes financiers (par exemple, étant plus faciles à gérer). Dans tous les
cas, un choix sur les moyens d'élévation sera généralement nécessaire, donc
sauter sur la première option à laquelle vous pensez n'est pas nécessairement une bonne idée.
L'une des raisons de privilégier une alternative d'élévation plutôt qu'une autre
est l'identité de la prochaine contrainte potentielle. Les contraintes ne «
disparaissent » pas en soi. Lorsqu'une contrainte est rompue, un autre facteur,
interne ou externe au système, devient la nouvelle contrainte du système,
bien qu'à un niveau supérieur de performance globale du système, mais
néanmoins une contrainte. Il est possible que la prochaine contrainte potentielle
soit plus difficile à gérer que celle que nous avons actuellement ; cela pourrait
réduire la marge de contrôle que nous avons sur notre système.
86 Planification intégrée
Tant que la prochaine contrainte pose une limite sensiblement plus élevée que
celle existante, il est probablement prudent de dire que l'entreprise a fait ce qu'il
fallait. Même si l'exploitation de l'ATE est plus difficile, l'augmentation du débit
pourrait en valoir la peine. L'ATE pourrait toujours être chargé un peu moins, et
l'entreprise réaliserait quand même plus d'argent. Quelle est la leçon ici? Évaluer le
retour sur investissement réel d'une action d'élévation nécessite une compréhension
de la théorie des contraintes, où se situera la prochaine contrainte et de combien le
débit augmentera avant d'atteindre la prochaine contrainte. Ainsi, la partie « évaluer »
de l'étape d'élévation peut être extrêmement importante. Il est important de savoir
où la nouvelle contrainte se produira, car elle pourrait affecter notre décision sur la
façon d'élever.
5. Revenez à l'étape 1, mais méfiezvous de "l'inertie". Même si l' exploit et les étapes
subordonnées ne brisent pas la contrainte du système, l' étape d'élévation le fera
très probablement, à moins qu'une décision consciente ne soit prise pour réduire
Machine Translated by Google
Planification stratégique 87
actions d'élévation en deçà de ce point. Dans les deux cas, après les étapes
subordonnées ou élevées , il est important de revenir à la première étape (identifier)
pour vérifier où se trouve la nouvelle contrainte système ou pour déterminer qu'elle
n'a pas migré de l'emplacement d'origine.
Parfois, une contrainte se déplace, non pas à la suite d'actions intentionnelles, mais
à la suite d'un changement dans l'environnement. Par exemple, un changement
dans les préférences du marché peut conduire une entreprise à modifier son mix
produit à un point tel que la contrainte se déplace ailleurs. Bien que de tels
changements externes ne se produisent pas très fréquemment, cela vaut la peine
de revenir à la première étape de temps en temps, juste pour vérifier que ce que
nous croyons être la contrainte est toujours, en fait, le facteur limitant du système.
88 Planification intégrée
s'étendent audelà des seules limites des processus de production, même s'ils affectent
toujours la fabrication, et parfois, surtout s'il s'agit de politiques, ils envahissent toute
l'organisation.
Pour faciliter l'analyse des systèmes complexes, Goldratt a créé un processus de
pensée logique. Le processus de réflexion est composé de six diagrammes logiques, ou
« arbres ». (Dettmer, 1997, 1998). Il a été spécifiquement conçu pour analyser les
politiques d'une organisation et déterminer celles qui pourraient constituer une contrainte
à une meilleure performance.
Ce processus de réflexion est unique d'un point de vue : il s'agit de l'une des rares
(peutêtre la seule) méthodologie de résolution de problèmes qui va audelà de
l'identification des problèmes et de la génération de solutions, et de la vérification des
solutions et de la planification de la mise en œuvre. Les composantes du processus de
réflexion comprennent :
Planification stratégique 89
107 Le
Quatre de ces arbres l'arbre de réalité actuelle, l'arbre de réalité future, la branche
négative et l'arbre de transition sont des arbres de cause à effet. Ils sont lus en utilisant
"Si ... alors ...." Le nuage en évaporation et l'arbre des conditions préalables sont
appelés arbres des « conditions nécessaires ». Ils sont lus un peu différemment, en
utilisant "Afin d'avoir … nous devons …."
Ces outils sont spécifiquement conçus pour aider à répondre aux trois principaux
questions inhérentes aux trois premières des cinq étapes de focalisation :
• Que changer ? • En
quoi changer ? •Comment
provoquer le changement ?
Machine Translated by Google
90 Planification intégrée
Hypothèses : 1. Le
fournisseur rapide est plus cher que les autres fournisseurs 2. Acheter auprès du
fournisseur rapide est toujours plus coûteux 3. Les coûts d'achat sont importants
4. Toutes les économies de coûts sont importantes
R1
P1
Gardez les coûts
de matériel aussi bas N'achetez pas chez
le fournisseur rapide
que possible
R2 P2
Assurer la disponibilité Achetez auprès du
du matériel fournisseur rapide
Hypothèses : 5. Le
fournisseur habituel n'est pas fiable 6. Le fournisseur
habituel met trop de temps à livrer 7. Nous ne connaissons jamais les
pics de demande à temps pour commander auprès du fournisseur habituel
Planification stratégique 91
GAM
92 Planification intégrée
Figure 5.6 Branche négative du procureur du district de Los Angeles — « Si cela ne vous convient pas,
vous devez acquitter… » (adapté de Dettmer, 1998).
Planification stratégique 93
(Obstacle à
surmonter) Objectif
je ne suis
pas inscrit
Sélectionnez
Je ne sais pas
(Objectif une école
quelles écoles
intermédiaire)
proposent
le programme que je
vouloir
Découvrez quelles
écoles offrent le
Je ne sais pas
ce que je veux
étudier
Décidez quoi
étudier
(Objectif
intermédiaire)
compromettant la fiabilité des dates d'échéance. Des délais de livraison plus courts et
une plus grande fiabilité de livraison sont des caractéristiques de service importantes
que les clients recherchent souvent.
94 Planification intégrée
Je ne sais pas
ce que je veux
étudier
Décidez
quoi étudier = J'ai décidé quoi
(L'arbre de transition établit un plan
étudier. d'action étape par étape et la
justification de chaque action)
Geste #3
Geste #2
Geste #1
Planification stratégique 95
Le concept de chaîne critique fournit un moyen efficace de planifier les activités du projet en
tenant compte efficacement de l'incertitude et en résolvant les besoins simultanés (conflits) pour
la même ressource. La Chaîne Critique constitue l'application aux projets ponctuels des mêmes
principes que DBR applique à la production répétitive. Le résultat de l'application de la planification
de la chaîne critique et de l'allocation des ressources est une plus grande probabilité de terminer
les projets à temps et, dans certains cas, de raccourcir la durée totale du projet. Appliquée à
l'origine à la gestion d'un projet unique, la méthode de la Chaîne Critique a été étendue aux
environnements multiprojets, sur la base du concept de « tambour », décrit dans DrumBuffer
Rope, cidessus.
Étant donné que les projets ne sont pas tout à fait les mêmes que la production répétitive,
certaines différences dans l'utilisation de la planification de projet de la chaîne critique sont inévitables.
Mais les concepts sont sensiblement les mêmes que ceux de DBR. Qu'estce qui distingue la
chaîne critique du PERT/CPM et des autres approches traditionnelles de gestion de projet ?
3. La loi de Parkinson (garantissant qu'une activité consomme chaque bit du temps estimé,
quelle que soit la rapidité avec laquelle les tâches associées peuvent réellement être
accomplies).
Machine Translated by Google
96 Planification intégrée
Les retards qui résultent de ce type de comportement sont causés par une
hypothèse de gestion erronée : la seule façon de garantir l'achèvement à temps d'un
projet est de s'assurer que CHAQUE activité se terminera à temps. Cette conviction
courante de la direction incite la direction à attribuer une importance injustifiée au
respect du délai d'exécution prévu pour chaque activité distincte d'un projet. Les gens
complètent ensuite leurs estimations des temps de travail pour s'assurer qu'ils peuvent
tout faire à temps. Mais en même temps, ils essaient de ne pas terminer beaucoup plus
tôt que leur propre estimation gonflée, afin de ne pas être tenus à des temps de travail
plus courts sur les projets suivants. Toutes ces « machinations humaines » provoquent
un cercle vicieux, faisant traîner les projets de plus en plus longtemps, mais la fiabilité
du respect des calendriers initiaux n'est pas améliorée.
•La Chaîne Critique. L'ensemble des tâches qui détermine la durée du projet, en
tenant compte à la fois de la priorité des tâches et des dépendances des
ressources (Newbold, 1998). La plus longue séquence d'activités dépendantes
est le "chemin critique" dans une approche PERT/CPM. Mais lorsque la durée
de cette séquence est ajustée pour une disponibilité optimale des ressources
(nivellement des ressources), toute la définition du chemin critique devient
Machine Translated by Google
Planification stratégique 97
Chemin critique
Non corrigé pour la disponibilité des ressources
Notez le conflit d'utilisation de la ressource 3
Le calendrier du projet indique la fin dans 67 jours
La date de fin réelle sera beaucoup plus tard (plus de 85 jours)
Chemin critique
B
Ressource1 Ressource2
Ressource1 Ressource3
C
0 1 2 3 4 5 6 7 8 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 63 65 67 69 71 73 75 77 79 81 83 85 87 89 91 93 95
Chaîne critique
Conflit de ressources éliminé
"Pad" de protection retiré de chaque activité
Tampon de projet ajouté
Achèvement prévu : 68 jours
Chaîne critique
B
Ressource1 Ressource2
Ressource1 Ressource3
C
0 1 2 3 4 5 6 7 8 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 63 65 67 69 71 73 75 77 79 81 83 85 87 89 91 93 95
Réel
Prévu
P1A
C
0 1 2 3 4 5 6 7 8 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 63 65 67 69 71 73 75 77 79 81 83 85 87 89 91 93 95
non pertinent. Il en résulte une durée différente, basée sur l'utilisation des
ressources. C'est la chaîne critique. (Reportezvous à la Fig. 5.10.) Étant donné
que la chaîne critique constitue désormais la contrainte qui détermine la date
la plus proche à laquelle un projet peut se terminer, il est crucial de surveiller
les progrès le long de la chaîne critique, car elle reflète l'avancement de
l'ensemble du projet.
Machine Translated by Google
98 Planification intégrée
•La mémoire tampon du projet. Un tampon projet est établi à la fin de l'activité
finale sur la Chaîne Critique, et avant la date de livraison requise. Il est
conçu pour protéger contre la variabilité et l'incertitude extrêmes qui peuvent
avoir un impact sur la chaîne critique. •Tampons
d'alimentation. Chaque activité (ou séquence d'activités) qui alimente la chaîne
critique est tamponnée avec une durée raisonnable pour se protéger contre
la variabilité de cette tâche particulière ou séquence de tâches. Les tampons
d'alimentation protègent la chaîne critique des retards survenant dans les
activités qui ne sont pas sur la chaîne critique. La variabilité est tout ce
contre quoi ces tampons protègent. Ils ne protègent pas contre le multitâche :
la tendance des organisations à affecter simultanément des tâches de
personnel technique à différents projets ou obligations.
En fait, l'un des déterminants du succès ou de l'échec de l'application de la
chaîne critique est la volonté de la direction de s'éloigner du multitâche.
•Gestion des
tampons. Un moyen de contrôle qui, à tout moment de la vie d'un projet, offre
aux maîtres d'ouvrage la possibilité de connaître l'utilisation des différents
tampons et d'intervenir dès que le projet semble risquer de dépasser son
échéancier. Les retards d'achèvement des tâches entraîneront une
"pénétration" dans les tampons, mais l'avertissement de ce qui se passe
arrive tellement plus tôt qu'il est souvent possible d'empêcher les
dépassements de calendrier plus tôt, avec des actions correctives
considérablement moins (ou moins extrêmes). La surveillance des tampons,
en particulier le tampon du projet, se traduit par une probabilité plus élevée
que le projet se termine à temps.
•La batterie. Ce concept, similaire à celui de DBR, ne s'applique qu'aux
situations multiprojets. Le concept de tambour nécessite de choisir l'une des
ressources les plus chargées en tant que "tambour" et d'échelonner
plusieurs projets en fonction de la disponibilité de celuici.
Ressource.
Les effets ultimes de la gestion de projet de la chaîne critique sont une plus
grande fiabilité des dates d'échéance de livraison, des livraisons plus précoces plus
fréquentes, moins de « pannes » et la conservation des coûts du projet. La gestion
des tampons, en particulier, fournit des informations bien mieux ciblées sur l'état
actuel du projet.
Planification stratégique 99
T = SR VC
L'inventaire (I) est défini comme tout l'argent que le système investit dans l'achat de
choses qu'il a l'intention de vendre (vraisemblablement après leur avoir ajouté de la valeur)
(Goldratt, 1990, p. 23). Étant donné que le concept d'inventaire de Goldratt inclut des
immobilisations, telles que des équipements, des installations et des biens immobiliers, le terme
« je » en est venu à représenter également « investissement », plutôt que simplement « inventaire » seul.
Machine Translated by Google
Pour les décisions de gestion quotidiennes, que nous aimerions pouvoir relier à l'objectif du
système, T, I et OE sont beaucoup plus utiles que les mesures traditionnelles de réussite
organisationnelle du bénéfice net (NP), du retour sur investissement (ROI), et les flux de trésorerie
(CF). Pourtant, il doit y avoir un lien entre les deux types de mesures financières. Et le voici :
NP = T OE
ROI = (T OE)/I
CF = T OE ± DI
Le bénéfice net est la différence entre le débit et les dépenses d'exploitation. Le retour sur
investissement est le bénéfice net (débit moins dépenses d'exploitation) divisé par l'inventaire/
l'investissement. Et le flux de trésorerie est le bénéfice net (débit moins les dépenses d'exploitation)
plus ou moins la variation des stocks.
Si le débit est augmenté, le bénéfice net augmente, même si les dépenses d'exploitation restent
les mêmes. Si les dépenses d'exploitation sont réduites, le bénéfice net augmente également (tant
que le débit reste au moins constant). Si l'inventaire est réduit, le retour sur investissement
augmente, même s'il n'y a aucun changement dans le débit ou les dépenses d'exploitation. Ces
mesures concernent les décisions de gestion opérationnelle bien mieux que le bénéfice net et le
retour sur investissement, maintenant les décisions quotidiennes plus en ligne avec l'objectif du
système que les mesures abstraites d'efficacité telles que l'utilisation de la machine, les unités
produites par jour/semaine, etc.
•La décision entraîneratelle une meilleure utilisation de la ressource la plus contrainte (c'est
àdire, plus d'unités de produit disponibles à vendre dans le même temps ou moins) ?
une caractéristique de produit ou de service que nos concurrents n'ont pas (par exemple, la
rapidité de livraison) ?
Seronsnous en mesure de détourner certaines personnes pour effectuer d'autres travaux (un
travail que nous ne pouvions pas faire auparavant) que nous pouvons facturer aux clients ?
Si tel est le cas, la décision améliorera le débit.
Machine Translated by Google
Mais un manager orienté contraintes y verrait un peu différemment. Sa première question serait :
« Suisje limité en interne par un manque de ressources ? La réponse devrait être assez évidente, car
le gestionnaire serait déjà au courant de la taille de l'arriéré, le cas échéant. Si la réponse est « non »,
le processus de production a une capacité excédentaire pour pouvoir répondre à la commande
urgente sans retarder le travail prévu. Le coût de la commande supplémentaire n'est que les matières
premières utilisées et éventuellement la perte de matériaux d'une unité de travail actuellement sur la
machine lorsque la configuration est cassée. Le temps des opérateurs de machines ne coûte plus. Ils
sont payés à l'heure, qu'ils fassent des configurations ou fabriquent des produits. L'augmentation
directe du bénéfice net pour l'entreprise en acceptant la demande du directeur des ventes serait le
débit (le chiffre d'affaires moins les coûts variables) pour la nouvelle commande.
Et il est possible que la fourniture de ce service accéléré à un client lui permette de fidéliser davantage
de clients à l'avenir. Ainsi, tant que le processus de fabrication n'est pas soumis à des contraintes
internes, le responsable de la production connaissant la théorie des contraintes accepterait
probablement ce nouveau travail, tandis qu'un responsable traditionnel pourrait dire au vendeur : «
Faites la queue ! Nous fonctionnons selon le principe du premier entré, premier sorti. » Et les
« chiffres » de ce directeur seraient bons à la fin du mois, mais qu'estce que cette décision aurait
apporté à l'entreprise ?
L'utilisation de T, I et OE pour prendre des décisions de gestion ne remplace pas les procédures
comptables généralement acceptées (GAAP). Ceuxci sont nécessaires, et le seront probablement
toujours, à des fins de reporting externe rapports annuels aux actionnaires, déclarations de titres et
d'échange, déclarations fiscales, etc. Mais le débit, les stocks et les dépenses d'exploitation sont
considérablement plus faciles à comprendre et à utiliser pour la plupart des gestionnaires pour évaluer
les effets financiers de leurs décisions quotidiennes.
Machine Translated by Google
Figure 5.11 Limites à T, I et OE. Pourquoi la poursuite de la réduction des coûts est
improductive (Source : Schragenheim et Dettmer, 2000).
Machine Translated by Google
sauf pour le débit. Et regardez la barre de débit dans la Fig. 5.10. Le potentiel
d'amélioration n'est peutêtre pas infini, mais d'un point de vue pratique, il y a beaucoup
plus de potentiel d'amélioration de la rentabilité en augmentant T qu'il n'y en aura jamais
en réduisant I et OE. Alors, qu'estil logique de prioriser : réorganiser les chaises
longues sur le Titanic ou s'éloigner de l'iceberg ? En résumé, peu d'entreprises peuvent
« sauver leur chemin » vers la prospérité.
Sommaire et conclusion
Pour résumer, la gestion des contraintes :
La théorie des contraintes, telle que conçue par Goldratt, s'incarne dans les cinq
étapes de concentration (identifier, exploiter, subordonner, élever, répéter/inertie), un
ensemble de mesures de progrès financier (débit, inventaire et dépenses d'exploitation)
et trois étapes génériques. outils (processus de pensée logique, tambourtamponcorde
et chaîne critique) qui peuvent être appliqués dans une variété de situations
organisationnelles.
Machine Translated by Google
CHAPITRE 6
Compréhension
Attentes et besoins des
clients
Machine Translated by Google
Machine Translated by Google
tion et qualité illustrées à la Fig. 6.1. Le modèle de Kano montre qu'il existe
Noritaki Kano a modélisé
un niveau la relation
de qualité de baseentre
que la
lessatisfaction du client
clients supposent que le produit aura.
Par exemple, toutes les automobiles ont des fenêtres et des pneus. Si on leur
demande, les clients ne mentionnent même pas les articles de qualité de base ; ils
les prennent pour acquis. Cependant, si ce niveau de qualité n'est pas atteint, le
client sera mécontent ; notez que toute la courbe de « qualité de base » se situe
dans la moitié inférieure du graphique, ce qui représente l'insatisfaction. Ainsi, fournir
une qualité de base est insuffisant pour créer un client satisfait.
La ligne de qualité attendue représente les attentes que les clients
prennent explicitement en compte, par exemple, le temps passé à faire la queue à
un comptoir de caisse. Le modèle montre que les clients seront insatisfaits si
leurs attentes en matière de qualité ne sont pas satisfaites ; la satisfaction augmente à mesure que
les attentes sont satisfaites.
La courbe de qualité excitante se situe entièrement dans la région de la satisfaction.
C'est l'effet de l'innovation. Une qualité passionnante représente des articles de qualité
inattendue . Le client reçoit plus que ce à quoi il s'attendait. Par exemple, Cadillac a
lancé un système où les phares restent allumés assez longtemps pour que le propriétaire
puisse marcher en toute sécurité jusqu'à la porte.
La pression concurrentielle augmentera constamment les attentes des clients.
La qualité passionnante d'aujourd'hui est la qualité de base de demain. Les entreprises qui cherchent
à dominer le marché doivent constamment innover. À l'inverse, les entreprises qui cherchent à offrir
une qualité standard doivent constamment rechercher les attentes des clients pour déterminer les
niveaux de qualité actuellement acceptés. Il ne suffit pas de suivre les concurrents puisque les
attentes sont également influencées par des facteurs extérieurs. À une certaine époque, des
caractéristiques désormais relativement omniprésentes comme les radios stéréo ou, plus récemment,
les airbags dans les automobiles étaient considérées comme des articles de luxe.
De toute évidence, comprendre les attentes et les enthousiasmes actuels des
clients est une activité continue. Malheureusement, les grands marchés ont
généralement de nombreux types de clients, avec des besoins et des attentes différents.
107
Machine Translated by Google
Satisfaction
Pression
Qualité
concurrentielle
passionnante
Région de
satisfaction Qualité
attendue
Qualité
Région
d'insatisfaction Qualité
de base
Figure 6.1 Modèle de Kano montrant la relation entre la satisfaction client et les
niveaux de qualité.
Dans la pratique, ces catégories peuvent devenir quelque peu ambiguës, car les
personnes remplissent des rôles différents à des moments différents. La clé pour
garder le bon recul est de comprendre que le critère fédérateur est la satisfaction de
l'utilisateur final. Toutes les activités du processus sont exécutées pour atteindre ce
résultat final.
Machine Translated by Google
À partir de cette analyse, le ou les segments cibles sont déterminés. La stratégie utilisée
pour sélectionner le(s) segment(s) cible(s) peut constituer une base pour l'élaboration du
plan qualité stratégique.
Les principaux concepts de segmentation sont illustrés à la Fig. 6.2.
B 1A 2B
1
1A
1 3 B
3 B 1B
1 3B
AA 3A
2
UN
•Segmentation par un seul critère (C, D). Un seul facteur de différenciation (par
exemple, le revenu ou l'âge) est utilisé. Une approche marketing différente est
utilisée pour chaque niveau du facteur de différenciation. Les exigences de qualité
varient pour chaque niveau du facteur de différenciation.
•Segmentation par critères multiples (E). Deux ou plusieurs facteurs de différenciation
sont utilisés. Par exemple, les clients peuvent être classés à la fois par revenu et
par âge. Encore une fois, la stratégie marketing et les exigences de qualité
peuvent varier pour chaque segment.
ont tendance à attacher des images à des noms de marque spécifiques, et la réputation de
qualité joue un rôle dans l'image du client. Ainsi, lorsque les entreprises souhaitent
s'adresser à des types de clients très différents, elles sont parfois amenées à créer des
entités totalement distinctes. Par exemple, Toyota a créé Lexus en tant qu'entité distincte
pour fabriquer et commercialiser sa gamme de voitures de luxe.
Préférences
homogènes Préférences diffuses Préférences groupées
• Les préférences groupées représentent des segments de marché naturels. Lorsque des
grappes de préférences distinctes existent, nous prévoyons que les produits concurrents
seraient différents entre les grappes et similaires à l'intérieur des grappes. Un exemple
serait les automobiles de luxe, économiques et sportives.
Collecte de données sur les attentes et les besoins des clients Puisqu'une organisation
existe pour servir ses clients, il est essentiel que l'organisation évalue en permanence sa capacité à
servir les clients. Comme nous l'avons vu, différents clients sont susceptibles d'avoir des attentes
différentes, en partie en raison des différences de marché, ainsi que de leurs perceptions de la
qualité attendue.
Étant donné que ces facteurs sont susceptibles de changer avec le temps, comme le montre le
modèle de Kano, il est essentiel que l'organisation développe et maintienne des systèmes pour
acquérir ces données et les utiliser pour la planification stratégique.
L'objectif principal de cette collecte de données est l'évaluation de la perception par les clients
de la qualité des produits et services de l'entreprise et de son impact sur la satisfaction des clients.
Pour être efficace, la communication fournira suffisamment de détails pour aider l'entreprise à
déterminer comment elle pourrait améliorer la qualité et la satisfaction, dans le cadre de ses efforts
d'amélioration continue.
Il existe plusieurs stratégies principales couramment utilisées pour obtenir des informations de
la part des clients ou à leur sujet : le service client et l'assistance, les enquêtes, les études de cas et
les expériences sur le terrain.
Les données sont collectées pour des enquêtes par sondage à partir d'un échantillon d'un
univers afin d'estimer les caractéristiques de l'univers, telles que leur portée ou leur dispersion, la
fréquence d'occurrence des événements ou les valeurs attendues des paramètres importants de
l'univers. Une enquête donnée est appliquée à une ou plusieurs populations statistiques, et les
résultats sont analysés à l'aide des outils statistiques énumératifs décrits au Chap. 9. Lorsque les
résultats de l'enquête sont collectés à intervalles réguliers, les résultats peuvent être analysés à
l'aide des outils analytiques de contrôle statistique des processus, comme décrit au Chap. 9 pour
obtenir des informations sur le processus sousjacent. L'approche analytique présente des avantages
inhérents, car de petites enquêtes régulières et périodiques peuvent fournir des données plus
pertinentes et opportunes que des études énumératives peu fréquentes. Sans les informations
disponibles à partir de séries de données ordonnées dans le temps, il ne sera pas possible d'en
savoir plus sur les processus qui produisent des changements dans la satisfaction des clients ou les
perceptions de la qualité.
Une étude de cas est une description analytique des propriétés, des processus, des conditions
ou des relations variables d'unités simples ou multiples à l'étude. Les enquêtes par sondage et les
études de cas sont généralement utilisées pour répondre à des questions descriptives (« À quoi
ressemblent les choses ? ») et à des questions normatives (« Dans quelle mesure les choses se
comparentelles à nos exigences ? »). Une expérience sur le terrain cherche la réponse à une
question de cause à effet (« Le changement atil produit le résultat souhaité ? »). Systèmes de
réclamation et de suggestion
Machine Translated by Google
fournissent généralement à tous les clients une méthode facile à utiliser pour fournir
des commentaires favorables ou défavorables à la direction. En raison d'un biais de
sélection, ces méthodes ne fournissent pas d'informations statistiquement valables.
Cependant, parce qu'il s'agit d'un recensement plutôt que d'un échantillon, ils
permettent aux clients individuels d'avoir leur mot à dire. Ce sont des moments de
vérité qui peuvent être mis à profit pour fidéliser la clientèle. Ils fournissent également
des anecdotes qui ont une validité apparente élevée et sont souvent une source
d'idées d'amélioration.
Compte tenu d'une politique et d'une procédure d'entreprise appropriées pour les
plaintes, le traitement des plaintes devient en grande partie une question de communication
entre le CCW et le client. L'activité la plus importante dans le processus est d'écouter le
client. Les techniques d'écoute doivent être systématiquement enseignées à tous les CCW ;
ces compétences sont absolument essentielles pour les responsables du traitement des
plaintes. Le CCW doit tenter de comprendre la nature, l'ampleur et l'impact potentiel de la
plainte sur le client. Ils doivent s'entendre avec le client sur le bienfondé de la plainte et
présenter les excuses de l'entreprise pour
Machine Translated by Google
Bien que cela puisse ne pas sembler intuitif, la recherche a montré que les
réclamations sont une excellente occasion de fidéliser la clientèle. Les clients qui
sont satisfaits de la manière dont leurs plaintes sont traitées sont plus susceptibles
de fréquenter une entreprise à l'avenir que les clients qui n'ont eu aucune plainte !
Le traitement approprié des plaintes, du point de vue du client, implique généralement
de recevoir une réponse courtoise, rapide et juste au problème immédiat en cause,
par exemple, le remplacement d'un article défectueux. S'assurer que cela se produit
régulièrement ne doit pas être laissé au hasard. Le traitement des plaintes, comme
tout le reste, est un processus. En tant que tel, il doit être conçu pour atteindre son
objectif (un client satisfait), testé pour s'assurer qu'il est correctement conçu et
continuellement amélioré.
Bien que le traitement des réclamations soit important, il ne faut pas oublier que
les réclamations sont des événements indésirables qu'il convient de prévenir. La
prévention des plaintes devrait être une activité continue, ce qui nécessite la collecte
de données pour comprendre la nature de son occurrence. Comme pour toutes les
données de processus, la carte de contrôle statistique (décrite au chapitre 9) est
l'outil d'analyse approprié, permettant de différencier les sources sporadiques de
variation du processus et les causes systématiques de variation. Cette distinction
est essentielle pour identifier la nature de l'opportunité ou de la menace, ainsi que la
réponse appropriée.
Bien que les principes généraux de vente et de service à la clientèle soient
souvent axés sur les transactions, les ventes et le service à la clientèle doivent
toujours être conçus et menés en gardant à l'esprit le concept plus large de gestion
des relations. La gestion des relations est la plus appropriée pour les clients qui
peuvent le plus affecter l'avenir de l'entreprise. Pour de nombreuses entreprises, les
20 % de clients les plus riches représentent une part disproportionnée des ventes
de l'entreprise. Le contact avec ces clients ne doit pas se limiter aux appels
commerciaux. Ces grands comptes doivent être surveillés pour s'assurer que leurs
besoins particuliers sont pris en compte. La relation doit être considérée comme un
partenariat, le fournisseur proposant de manière proactive des suggestions sur la
manière dont le client pourrait améliorer ses ventes, sa qualité, etc. Pour les grands
comptes, un programme formel de gestion des relations doit être envisagé.
Machine Translated by Google
Kotler (1991, pp. 679680) présente les étapes suivantes pour établir un programme de gestion
des relations au sein d'une entreprise :
Identifiez les principaux clients méritant une gestion des relations. L'entreprise peut choisir les 5
ou 10 plus gros clients et les désigner pour la gestion des relations. Des clients supplémentaires
peuvent être ajoutés qui affichent une croissance exceptionnelle ou qui sont les pionniers de
nouveaux développements dans l'industrie, et ainsi de suite.
Attribuez un responsable des relations qualifié à chaque client ou groupe de clients clé.
Le vendeur qui sert actuellement le client doit recevoir une formation en gestion des relations ou
être remplacé par quelqu'un qui est plus compétent en gestion des relations. Le chargé de
clientèle doit avoir des caractéristiques qui correspondent ou font appel au client.
Élaborez une description de poste claire pour les chargés de relations. Il doit décrire leurs liens
hiérarchiques, leurs objectifs, leurs responsabilités et leurs critères d'évaluation. Le chargé de
relations est responsable du client, est le point focal pour toutes les informations sur le client et
est responsable de la mobilisation des services de l'entreprise envers le client. Chaque chargé
de relations n'aura qu'une ou quelques relations à gérer.
Nommer un responsable général pour superviser les chargés de relations. Cette personne
élaborera des descriptions de poste, des critères d'évaluation et des ressources de soutien pour
accroître l'efficacité des gestionnaires de relations.
Chaque chargé de clientèle doit développer des plans de relation client à long terme et annuels.
Le plan de relation annuel énoncera les objectifs, les stratégies, les actions spécifiques et les
ressources nécessaires.
L'élaboration
d' enquêtes comprend les principales tâches suivantes (GAO, 1986, p. 15) :
analysables • Analyse
des données
Figure 6.5 Temps d'achèvement typiques pour les principales tâches du questionnaire (GAO, 1986).
Machine Translated by Google
5. Posez des questions impartiales en utilisant des formats et des constructions d'items
appropriés et en présentant tous les facteurs importants dans le bon ordre.
8. Fournissez une piste d'enquête logique et impartiale pour retenir l'attention du lecteur et
faciliter la tâche de réponse.
Types de réponses
Il existe plusieurs types de réponses aux sondages couramment utilisés.
•Questions ouvertes. Ce sont des questions qui permettent aux répondants de formuler leur
propre réponse sans aucune restriction imposée à la réponse. Le principal avantage est
que ces questions sont faciles à formuler et à poser en utilisant le langage naturel, même
si l'auteur de la question a peu de connaissances sur le sujet. Malheureusement, l'analyse
des réponses reçues à ce type de question pose de nombreux problèmes. Ce type de
question est plus utile pour déterminer la portée et le contenu de l'enquête, et non pour
produire des résultats à des fins d'analyse ou d'amélioration des processus.
Machine Translated by Google
• Questions à compléter. Ici, le répondant reçoit des instructions qui précisent les unités
dans lesquelles le répondant doit répondre. Les instructions doivent être explicites et
préciser les unités de réponse. Ce type de question est à réserver à des demandes
très précises, par exemple « Quel âge astu à ton dernier anniversaire ? (Age en
années)."
•Des questions oui ou non. Malheureusement, les questions oui/non sont très populaires.
Bien qu'ils présentent certains avantages, ils présentent de nombreux problèmes et
peu d'utilisations. Les questions oui/non sont idéales pour les variables dichotomiques,
telles que défectueux ou non défectueux. Cependant, trop souvent, ce format est
utilisé lorsque la mesure couvre une gamme de valeurs et de conditions, par exemple,
« Étiezvous satisfait de la qualité de votre nouvelle voiture (oui/non) ? » Une réponse
oui/non à de telles questions contient peu d'informations utiles.
• Classement des questions. Le format de classement est utilisé pour classer les options
selon certains critères, par exemple, l'importance. Les formats de classement sont
difficiles à écrire et difficiles à répondre. Ils donnent très peu d'informations réelles et
sont très sujets aux erreurs qui peuvent invalider toutes les réponses. Ils doivent être
évités dans la mesure du possible au profit de formats plus puissants et de formats
moins sujets aux erreurs, comme la notation. Lorsqu'il est utilisé, le nombre de
catégories de classement ne doit pas dépasser cinq.
• Questions d'évaluation. Avec ce type de réponse, une note est attribuée sur la
base de la position absolue du score dans une plage de valeurs possibles. Les
échelles d'évaluation sont faciles à écrire, faciles à répondre et fournissent un
niveau de quantification adéquat pour la plupart des objectifs. Ils tendent à
produire des mesures raisonnablement valables. Voici un exemple de format
d'évaluation : Pour
l'énoncé suivant, cochez la case appropriée : Les
normes de fabrication fournies par l'acheteur sont n Claires
n
Légèrement adéquates
n Peu claires
• Likert et autres formats d'échelle d'intensité. Ces formats sont généralement utilisés
pour mesurer la force d'une attitude ou d'une opinion. Par exemple, veuillez cocher
la case appropriée en réponse à l'énoncé suivant : « L'auditeur qualité était
bien informé. n Fortement en désaccord n
En désaccord n
Neutre
n
D'accord n Tout
à fait d'accord Les échelles d'intensité sont très faciles à construire. Il est
préférable de les utiliser lorsque les répondants peuvent être d'accord ou non avec
une affirmation. Un problème est que les déclarations doivent être formulées pour
présenter un seul côté d'un argument. Nous savons que l'intimé est d'accord, mais
nous devons déduire ce qu'il croit. Pour compenser la tendance naturelle des gens
à être d'accord, les déclarations sont généralement présentées en utilisant également
l'inverse, par exemple, "L'auditeur qualité n'était pas bien informé".
Lorsque vous utilisez des échelles d'intensité, utilisez une échelle impaire,
de préférence avec cinq catégories. S'il y a une possibilité de biais, ordonnez
l'échelle d'une manière qui favorise l'hypothèse que vous voulez réfuter et
handicape l'hypothèse que vous voulez confirmer. Cela confirmera l'hypothèse
avec le biais contre vous un résultat plus fort. S'il n'y a pas de parti pris, placez
les choix les plus indésirables en premier.
•Format différentiel sémantique. Dans ce format, les valeurs qui couvrent l'éventail
des choix possibles ne sont pas complètement identifiées ; seuls les points
d'extrémité sont étiquetés. Par exemple,
Indiquez le nombre de fois où vous avez initié une communication avec votre
client au cours du mois passé.
peu beaucoup
L'étude de la qualité des services et de la satisfaction des patients a été réalisée dans un
hôpital communautaire de 213 lits dans le sudouest des ÉtatsUnis. L'hôpital est une institution
à but non lucratif financée par l'État qui fournit des services à la communauté adulte. les services
pédiatriques ne sont pas fournis. Le but de l'étude était de :
Identifier les processus de prestation de services internes qui ont eu un impact sur les
jugements de qualité des patients.
• Déterminer le lien entre les jugements de qualité des patients et l'intention de fréquenter
l'hôpital à l'avenir ou de recommander l'hôpital à d'autres.
Pour mener l'étude, l'auteur a travaillé en étroite collaboration avec une équipe centrale
d'employés de l'hôpital et avec plusieurs équipes ad hoc d'employés de l'hôpital.
L'équipe de base comprenait l'administrateur des soins infirmiers, le chef du département de
gestion de la qualité et le chef des services de nutrition.
L'équipe a décidé de développer ses critères de manière indépendante. Il a été convenu
que la meilleure méthode pour obtenir des informations était directement auprès du groupe
cible, les patients hospitalisés. En raison de la nature des services de soins hospitaliers, les
groupes de discussion n'ont pas été jugés faisables pour cette étude. Souvent, les patients
doivent passer une période de temps considérable en convalescence après leur sortie de
l'hôpital, ce qui les empêche de participer à un groupe de discussion peu après leur sortie.
Pendant que les patients sont à l'hôpital, ils sont généralement trop malades pour participer.
Certains patients ont des maladies transmissibles, ce qui rend leur participation à des groupes
de discussion déconseillée.
Étant donné que les souvenirs des événements ont tendance à s'estomper rapidement
(Flanagan, 1954, p. 331), l'équipe a décidé que les patients devaient être interrogés dans les 72
heures suivant leur sortie. La population de patients cible était donc tous les adultes traités en
tant que patients hospitalisés et renvoyés à leur domicile. Les groupes suivants ne faisaient pas
partie de l'étude : les familles des patients décédés à l'hôpital, les patients renvoyés dans des
maisons de retraite et les patients admis pour des soins psychiatriques.
L'équipe a utilisé la technique de l'incident critique (CIT) pour obtenir les commentaires des
patients. Le CIT a d'abord été utilisé pour étudier les procédures de sélection et de classement
des candidats pilotes pendant la Seconde Guerre mondiale (Flanagan, 1954). Une bibliographie
réunie en 1980 recense plus de sept cents études sur ou utilisant le CIT (Fivars, 1980). Compte
tenu de sa popularité, il n'est pas surprenant que le CIT ait également été utilisé pour évaluer la
qualité de service.
Le CIT consiste en un ensemble de procédures spécifiquement définies pour collecter des
observations du comportement humain de manière à les rendre utiles pour résoudre des
problèmes pratiques. Sa force réside dans des procédures soigneusement structurées de
collecte et de classification des données qui produisent des informations détaillées non
disponibles par d'autres méthodes de recherche. La technique, utilisant soit l'observation directe,
soit des informations rappelées recueillies via
Machine Translated by Google
Plan d'entretien Les enquêteurs ont reçu une liste des patients sortis au
cours des 3 derniers jours. La liste de sortie comprenait tous les patients.
Les patients non psychiatriques renvoyés « à domicile » étaient candidats à
l'entretien. Le domicile était défini comme tout lieu autre que la morgue ou
une maison de retraite. Les enquêteurs devaient lire un ensemble d'énoncés
prédéterminés. Les patients à appeler ont été sélectionnés au hasard à partir
de la liste de sortie. Si un patient n'était pas joignable, l'enquêteur réessayait
plus tard dans la journée. Un formulaire d'entretien a été préparé par patient.
Pour éviter les biais, 50 % des formulaires d'entretien demandaient au patient
de se rappeler d'abord les incidents désagréables et 50 % demandaient
d'abord les incidents agréables. Les enquêteurs ont été chargés d'enregistrer
les réponses des patients en utilisant les propres mots du patient.
éléments d'enquête pour chacune des dimensions déterminées par l'étude de l'incident
critique. Les équipes ont reçu de l'auteur de brèves instructions sur les caractéristiques
des bons éléments d'enquête. Les équipes devaient développer des items qui, de l'avis
de l'équipe principale, répondaient à cinq critères : (1) pertinence par rapport à la
dimension mesurée, (2) concis, (3) sans ambiguïté, (4) une pensée par item, et ( 5) pas
de doubles négatifs. Les équipes ont également été informées des commentaires
spécifiques des patients qui ont servi de base aux catégories et ont été informées que
ces commentaires pourraient être utilisés comme base pour l'élaboration des éléments
de l'enquête.
Écrire des éléments pour le questionnaire peut être difficile. Le processus
d'élaboration des éléments de l'enquête a impliqué une moyenne de trois réunions par
dimension, chaque réunion durant environ 2 heures. Les équipes ad hoc étaient
composées de 4 à 11 membres. Le processus était souvent assez fastidieux, avec un
débat considérable sur le libellé précis de chaque élément.
L'équipe de base a discuté de l'échelle à utiliser avec chaque équipe ad hoc. Le
format de réponse recommandé par l'équipe principale était une échelle de type Likert à
cinq points. Le consensus était d'utiliser un continuum d'accordpas d'accord en cinq
points comme format de réponse. La formulation des items a été faite de manière à ce
que l'accord représente une meilleure performance du point de vue de l'hôpital.
En plus des éléments de réponse, il a été estimé que les patients devraient avoir la
possibilité de répondre à des questions ouvertes. Ainsi, l'enquête comprenait également
des questions générales qui invitaient les patients à commenter dans leurs propres mots.
Les avantages d'avoir de telles questions sont bien connus. De plus, on a estimé que
ces questions pourraient générer d'autres incidents critiques qui seraient utiles pour
élargir la portée de l'enquête.
L'instrument d'enquête qui en a résulté contenait 50 éléments et trois questions
ouvertes.
Livré Revenu %
Enquêtes 92 45 49%
Sondages avec incitatif de 1 $ 47 26 55%
Enquêtes sans incitatif de 1 $ 45 19 42%
Tableau 6.1 Renseignements sur le retour de l'enquête pilote auprès des patients
Groupes de
discussion Le groupe de discussion est un type particulier de groupe en termes d'objectif,
de taille, de composition et de procédures. Un groupe de discussion est généralement
composé de sept à dix participants qui ne se connaissent pas. Ces participants sont
sélectionnés parce qu'ils ont certaines caractéristiques en commun qui se rapportent au
sujet du groupe de discussion.
Le chercheur crée un environnement permissif dans le groupe de discussion qui nourrit
différentes perceptions et points de vue, sans faire pression sur les participants pour qu'ils
votent, planifient ou parviennent à un consensus. La discussion de groupe est menée
plusieurs fois avec des types de participants similaires pour identifier les tendances et les
modèles dans les perceptions. Une analyse minutieuse et systématique des discussions
peut fournir des indices et des idées sur la façon dont un produit, un service ou une
opportunité est perçu.
Un groupe de discussion peut donc être défini comme une discussion soigneusement
planifiée conçue pour obtenir des perceptions sur un domaine d'intérêt défini dans un
environnement permis sif et non menaçant. La discussion est détendue, confortable,
Machine Translated by Google
et souvent agréable pour les participants lorsqu'ils partagent leurs idées et leurs perceptions. Les
membres du groupe s'influencent mutuellement en répondant aux idées et
commentaires dans la discussion.
CHAPITRE 7
Analyse comparative
Machine Translated by Google
Machine Translated by Google
et fixer des objectifs. En termes plus conventionnels, l'analyse comparative peut être définie
L'analyse comparative
comme est de
la mesure unevotre
méthode populaire
performance pour
par développer
rapport des meilleures
à celle des exigences entreprises de
leur catégorie, la détermination de la manière dont les meilleures de leur catégorie atteignent ces
niveaux de performance et l'utilisation de ces informations comme base pour les objectifs, les
stratégies de votre propre entreprise. , et la mise en œuvre. L'analyse comparative implique la
recherche des meilleures pratiques au niveau de l'industrie, de l'entreprise ou du processus.
L'analyse comparative va audelà d'une détermination de la « norme de l'industrie » ; il décompose
les activités de l'entreprise en opérations de processus et recherche le meilleur de sa catégorie pour
une opération particulière. Par exemple, la société Xerox a étudié le détaillant LL Bean pour l'aider
à améliorer son processus de distribution de pièces.
d'une relative complaisance à un fort sentiment d'urgence pour une amélioration continue •
Concentrer les ressources sur des objectifs de performance fixés
avec l'employé
saisir
L'analyse comparative est basée sur l'apprentissage des autres, plutôt que sur
le développement d'approches nouvelles et améliorées. Étant donné que le processus
étudié est visible de tous, une entreprise constatera que l'analyse comparative ne
peut lui donner un avantage concurrentiel durable. Bien qu'utile, l'analyse comparative
ne devrait jamais être la principale stratégie d'amélioration.
L'analyse concurrentielle est une approche de l'établissement d'objectifs utilisée par de
nombreuses entreprises. Cette approche est essentiellement une analyse comparative limitée à sa
propre industrie. Bien que courante, l'analyse concurrentielle garantit pratiquement
131
Machine Translated by Google
une qualité de second ordre car l'entreprise suivra toujours leur concurrence. Si l'ensemble de
l'industrie utilise cette approche, cela entraînera une stagnation à l'échelle de l'industrie, créant
des opportunités pour les innovateurs extérieurs.
Camp (1989) énumère les étapes suivantes pour le processus d'analyse comparative :
1. Planification
2. Analyse 2.1.
Intégration 3.1.
5. Maturité 5.1.
Marquage B 133
soyez prêt à réduire ce qui sera probablement une liste extrêmement longue de candidats
(par exemple, une recherche sur Internet sur le mot benchmarking a produit près de 20
millions de requêtes). N'oubliez pas les ressources internes de votre organisation.
Si votre entreprise dispose d'un « intranet », utilisezle pour effectuer une recherche interne.
Organisez une réunion avec des personnes de départements clés, tels que la R&D. Exploitez
l'expertise des personnes de votre entreprise qui travaillent régulièrement avec des clients,
des concurrents, des fournisseurs et d'autres organisations "extérieures". Souvent, le conseil
d'administration de votre entreprise dispose d'un vaste réseau de contacts.
La recherche n'est bien sûr pas aléatoire. Vous recherchez le meilleur des meilleurs,
pas l'entreprise moyenne. Il existe de nombreuses sources possibles pour identifier les élites.
Une approche consiste à créer un recueil de récompenses commerciales et de citations de
mérite que les organisations ont reçues dans le cadre de l'amélioration des processus
opérationnels. Les sources à considérer sont le prix de la meilleure usine de la semaine de
l'industrie , le prix Malcolm Baldrige du National Institute of Standards and Technology, USA
Today et le prix Quality Cup du Rochester Institute of Technology, le prix de la Fondation
européenne pour la gestion de la qualité, l'Occupational Safety and Health Administration
(OSHA), Federal Quality Institute, Deming Prize, Competitiveness Forum, Fortune magazine
et United States Navy's Best Manufacturing Practices, pour n'en nommer que quelquesuns.
Vous souhaiterez peutêtre vous abonner à un « service d'échange » qui collecte des
informations d'analyse comparative et les met à disposition moyennant des frais. Une fois
inscrit, vous aurez accès aux noms des autres abonnés, une excellente source de contacts.
Une fois qu'une liste de candidats potentiels est compilée, l'étape suivante consiste à choisir
les trois à cinq meilleures cibles. Un candidat qui semblait prometteur au début du processus
pourrait être éliminé plus tard pour un certain nombre de raisons, y compris de mauvaises
performances, un manque d'engagement à partager des informations ou des pratiques, une faible
disponibilité ou une valeur douteuse des informations (Vaziri, 1992).
Au fur et à mesure de l'évolution du processus d'analyse comparative, les caractéristiques des
candidats les plus recherchés seront continuellement affinées. Cela se produit grâce à une
compréhension plus claire des principales caractéristiques de qualité et des facteurs critiques de
succès de votre organisation et à une meilleure connaissance du marché et des autres acteurs.
Cette connaissance et les actions qui en découlent renforcent énormément une organisation.
Les causes des projets d'analyse comparative qui ont échoué sont les mêmes que celles des autres
projets qui ont échoué (DeToro, 1995) :
• Manque de parrainage. Une équipe doit soumettre à la direction une proposition de projet
d'analyse comparative d'une à quatre pages qui décrit le projet, ses objectifs et ses coûts
potentiels. Si l'équipe ne peut pas obtenir l'approbation du projet ou obtenir un sponsor, il
n'est pas logique de poursuivre un projet qui n'est pas compris ou apprécié ou qui est peu
susceptible de conduire à une action corrective une fois terminé. • Mauvaises personnes
dans l'équipe. Les personnes impliquées dans l'analyse comparative
doivent posséder ou travailler dans le processus en cours d'examen. Il est inutile pour une
équipe de résoudre des problèmes dans des domaines d'activité qui ne lui sont pas
familiers ou sur lesquels l'équipe n'a aucun contrôle ou influence.
• Les équipes prennent trop de choses. Les grands problèmes deviennent rapidement
ingérables et doivent être divisés en projets plus petits et plus gérables qui peuvent être
abordés de manière logique. Une approche suggérée consiste à créer un organigramme
fonctionnel d'un domaine entier, tel que la production ou le marketing, et à identifier ses
processus. Les critères peuvent ensuite être utilisés pour sélectionner un sousprocessus
à étalonner qui contribuerait le mieux aux objectifs de l'organisation. • Manque
d'engagement de la direction à long terme.
Étant donné que les gestionnaires ne sont pas aussi familiers avec les problèmes de travail
spécifiques que leurs employés, ils ont tendance à
Machine Translated by Google
Marquage B 135
sousestimer le temps, le coût et les efforts requis pour mener à bien un projet
d'analyse comparative. Les gestionnaires doivent être informés que, bien qu'il soit
impossible de connaître le temps exact qu'il faudra pour un projet d'analyse
comparative typique, une règle empirique est qu'une équipe de quatre ou cinq
personnes a besoin d'un tiers de son temps pendant 5 mois pour terminer un projet.
• Se concentrer sur les
métriques plutôt que sur les processus. Certaines entreprises concentrent leurs efforts
d'analyse comparative sur les objectifs de performance (mesures) plutôt que sur les
processus. Savoir qu'un concurrent a un rendement plus élevé sur ses actifs ne
signifie pas que sa seule performance devrait devenir la nouvelle cible (à moins qu'il
existe une compréhension de la façon dont le concurrent diffère dans l'utilisation de
ses actifs et qu'une évaluation de son processus révèle qu'il peut être émulé ou
dépassé).
• Ne pas positionner l'analyse comparative dans une stratégie plus large. L'analyse
comparative est l'un des nombreux outils de gestion de la qualité totale, tels que la
résolution de problèmes, l'amélioration des processus et la réingénierie des
processus, utilisés pour raccourcir le temps de cycle, réduire les coûts et minimiser les variations.
L'analyse comparative est compatible et complémentaire avec ces outils, et ils
doivent être utilisés ensemble pour une valeur maximale. • Mal comprendre
la mission, les buts et les objectifs de l'organisation. Toute activité d'analyse comparative
doit être lancée par la direction dans le cadre d'une stratégie globale visant à réaliser
la mission et la vision de l'organisation en atteignant d'abord les objectifs à court
terme, puis les objectifs à long terme. • En supposant que chaque projet nécessite
une visite sur site.
Des informations suffisantes sont souvent disponibles dans le domaine public, ce qui
rend inutile une visite du site. Cela accélère le processus d'analyse comparative et
réduit considérablement les coûts. • Défaut de surveiller les progrès. Une fois que
l'analyse comparative est
terminée pour un domaine spécifique ou que des repères de processus ont été établis
et que les changements de processus ont été mis en œuvre, les gestionnaires
doivent examiner les progrès de la mise en œuvre et les résultats.
La meilleure façon de résoudre ces problèmes est de prévenir leur apparition en planifiant
et en gérant soigneusement le projet dès le départ.
Cette liste peut être utilisée comme liste de contrôle pour évaluer les plans de projet ; si les
plans n'excluent pas clairement ces problèmes, alors les plans ne sont pas complets.
Machine Translated by Google
Machine Translated by Google
CHAPITRE 8
Évaluation organisationnelle
Machine Translated by Google
Machine Translated by Google
Les questions sont posées par des enquêteurs impartiaux et l'anonymat est
garanti aux répondants. Bien que les entretiens soient généralement menés en
personne ou par téléphone, des réponses écrites sont parfois obtenues.
L'ordre dans lequel les questions sont posées (bénéfique/préjudiciable) est randomisé
pour éviter les biais dans les réponses. Les enquêteurs ont pour instruction de ne pas
139
Machine Translated by Google
inciter le répondant de quelque manière que ce soit. Il est important que les réponses soient
enregistrées textuellement, en utilisant les propres mots du répondant. Les participants sont
priés de fournir autant de réponses que possible ; un groupe de 20 participants produira
généralement entre 80 et 100 réponses.
Les réponses fournissent généralement beaucoup d'informations. Lorsqu'elles sont
regroupées en catégories, les catégories peuvent être examinées pour glaner un aperçu
supplémentaire des thèmes communs. Les réponses et les catégories peuvent être utilisées
pour élaborer des éléments d'enquête valides (voir chap. 6) ou pour préparer les questions
des groupes de discussion. L'activité de suivi est la raison pour laquelle si peu de personnes
sont nécessaires à ce stade la validité statistique est obtenue au cours de l'étape de l'enquête.
Les résultats de l'enquête sur la culture de la qualité seront utilisés pour comprendre
les forces et les faiblesses perçues de l'initiative de qualité actuelle. Il peut identifier les
sources de résistance au changement, ainsi que les frustrations liées au statu quo. Des
projets d'amélioration au niveau de l'entreprise peuvent être développés pour se concentrer
sur le changement spécifique de certains aspects de la culture de la qualité, ou plus
généralement sur la transformation de l'effort de qualité en une approche plus axée sur le
client.
Métriques organisationnelles
Les métriques organisationnelles, parfois appelées indicateurs de performance clés (KPI),
sont développées pour comprendre la santé globale d'une organisation.
Ils fournissent l'élément fondamental des tableaux de bord et des tableaux de bord
prospectifs, qui sont utilisés pour montrer rapidement les performances de l'organisation
par rapport au passé, à un objectif ou aux deux.
Le choix de la métrique n'est important que dans la mesure où la métrique est utilisée
pour guider le comportement ou établir une stratégie. Des paramètres mal choisis peuvent
conduire à un comportement sousoptimal s'ils éloignent les gens des objectifs de
l'organisation au lieu de les rapprocher. Joiner (1994) propose trois mesures de performance
à l'échelle du système : la satisfaction globale du client, le temps de cycle total et la qualité
du premier passage. Une mesure efficace pour quantifier la qualité de premier passage est
le coût total de la mauvaise qualité (voir la section Coût de la qualité). Une fois choisies, les
métriques doivent être communiquées aux membres de l'organisation.
Pour être utile, l'employé doit être en mesure d'influencer la métrique par le biais de sa
performance, et il doit être clair et précis comment la performance de l'employé influence la
métrique.
Rose (1995) énumère les attributs suivants d'une bonne métrique :
• Ils sont centrés sur le client et axés sur des indicateurs qui apportent de la valeur
aux clients, tels que la qualité du produit, la fiabilité du service et la rapidité de
livraison, ou sont associés à des processus de travail internes qui traitent de la
réduction des coûts du système, de la réduction des déchets, de la coordination et
du travail d'équipe, de l'innovation, et la satisfaction des clients. •Ils mesurent les
performances dans le temps, ce qui montre des tendances plutôt que des instantanés.
Machine Translated by Google
•Ils fournissent des informations directes au niveau auquel ils sont appliqués. Aucun
autre traitement ou analyse n'est nécessaire pour déterminer la signification.
•Ils sont liés à la mission, aux stratégies et aux actions de l'organisation. Ils contribuent
à la direction et au contrôle de l'organisation. •Ils sont développés en collaboration
par des équipes de personnes qui fournissent, collectent, traitent et utilisent les données.
Les KPI traditionnels sont établis dans quatre grandes catégories (Kaplan et Norton,
1992) : axé sur le client, processus interne, apprentissage et croissance, et financier. Celles
ci peuvent être évaluées comme suit (Pyzdek et Keller, 2010) :
Client. Les clients considèrent généralement quatre grandes catégories lors de l'évaluation
d'un fournisseur : la qualité, la rapidité, la performance et le service, et la valeur. Les
méthodes de communication client décrites dans la section précédente fourniront les
moyens de comprendre l'importance relative que la clientèle accorde à ces catégories,
ainsi que leurs attentes générales. Sur la base de ces commentaires, des objectifs internes
peuvent être définis et des mesures opérationnelles établies à partir des objectifs. Un
exemple est fourni dans le tableau 8.1.
Processus interne. Ce sont les mesures peutêtre les plus familières au personnel
opérationnel ; cependant, dans ce cas, les mesures opérationnelles qui s'alignent fortement
sur les objectifs stratégiques sont les mieux adaptées. La recommandation de Joiner
concernant le temps de cycle total (c'estàdire le temps de traitement de la commande) et
la qualité du premier passage sont des indicateurs pertinents de la performance des processus internes.
L'efficacité du cycle de processus, calculée comme le temps à valeur ajoutée divisé par le
délai total, ou l'efficacité globale de l'équipement, sont des mesures pertinentes axées sur
le Lean pour évaluer les performances internes et l'utilisation des ressources.
Nous réduirons le temps nécessaire Temps moyen pour introduire un nouveau produit pour le mois ou le
pour introduire un nouveau produit de trimestre le plus récent
9 à 3 mois Nombre de nouveaux produits lancés au cours du dernier trimestre
Nous impliquerons intimement nos Nombre de clients dans l'équipe de conception (s)
clients dans la conception de notre prochain Nombre de suggestions de clients intégrées dans le nouveau
produit majeur design
Coût de la qualité
L'historique de l'évaluation du coût de la qualité (parfois appelé coût de la mauvaise
qualité) remonte à la première édition du QC Handbook de Juran en 1951.
Aujourd'hui, les systèmes de comptabilité analytique de la qualité font partie de la
stratégie d'amélioration de la qualité de toute organisation moderne. En effet, la qualité de
la comptabilité analytique et du reporting fait partie de nombreuses normes de qualité. Les
systèmes de coût de la qualité aident la direction à planifier l'amélioration de la qualité en
identifiant les opportunités pour un meilleur retour sur investissement. Cependant, le
responsable qualité doit garder à l'esprit que les coûts de la qualité ne traitent que la moitié
de l'équation de la qualité. L'équation de la qualité stipule que la qualité consiste à faire
les bonnes choses et à ne pas faire les mauvaises choses. « Faire les bonnes choses »
implique de développer des caractéristiques de produits et de services qui satisfont ou
ravissent le client. « Ne pas faire les mauvaises choses » signifie éviter les défauts et
autres comportements qui causent l'insatisfaction des clients. Les coûts de la qualité ne
concernent que le dernier aspect de la qualité. Il est concevable qu'une entreprise puisse
réduire les coûts de qualité à zéro et continuer à faire faillite.
Le principe fondamental du coût de la qualité est que tout coût qui n'aurait pas été
dépensé si la qualité était parfaite est un coût de la qualité.
Cela inclut des coûts aussi évidents que la mise au rebut et la reprise, mais également de
nombreux coûts beaucoup moins évidents, tels que le coût de la commande pour
remplacer le matériel défectueux. Les entreprises de services supportent également des
coûts de qualité ; par exemple, un hôtel encourt un coût de qualité lorsque le service de
chambre livre un article manquant à un client. Plus précisément, les coûts de qualité sont
une mesure des coûts spécifiquement associés à la réalisation ou à la nonréalisation de
la qualité du produit ou du service, y compris toutes les exigences de produit ou de service
établies par l'entreprise et ses contrats avec les clients et la société.
Les exigences comprennent les spécifications marketing, les spécifications du produit
final et du processus, les bons de commande, les dessins techniques, les procédures de
l'entreprise, les instructions d'utilisation, les normes professionnelles ou industrielles, les
réglementations gouvernementales et tout autre document ou besoin du client pouvant
affecter la définition du produit ou du service. Plus précisément, les coûts de qualité sont
le total des coûts encourus par (a) l'investissement dans la prévention des nonconformités
aux exigences, (b) l'évaluation d'un produit ou d'un service pour la conformité aux
exigences, et (c) le non respect des exigences (voir Fig. 8.1).
Machine Translated by Google
Coûts de défaillance
Coûts résultant de produits ou de services non conformes aux exigences ou aux besoins du client/utilisateur. Les coûts
de défaillance sont divisés en catégories de coûts de défaillance internes et externes.
Pour la plupart des organisations, les coûts de qualité sont des coûts cachés. À moins
que des efforts spécifiques d'identification des coûts de qualité n'aient été entrepris, peu de
systèmes comptables incluent des dispositions pour identifier les coûts de qualité. De ce fait,
les coûts de qualité non mesurés ont tendance à augmenter. Une mauvaise qualité affecte
les entreprises de deux manières : des coûts plus élevés et une satisfaction client moindre.
La baisse de satisfaction crée une pression sur les prix et des ventes perdues, ce qui entraîne
une baisse des revenus. La combinaison de coûts plus élevés et de revenus plus faibles
entraîne finalement une crise qui peut menacer l'existence même de l'entreprise. Une
mesure rigoureuse du coût de la qualité est une technique permettant d'éviter qu'une telle
crise ne se produise. La figure 8.2 illustre le concept de coût caché.
L'objectif de tout système de coût de la qualité est de réduire les coûts de la qualité au
niveau pratique le plus bas. Juran et Gryna (1988) présentent ces coûts graphiquement
comme le montre la figure 8.3. Dans la figure, on peut voir que le coût de l'échec diminue à
mesure que les niveaux de qualité de conformité s'améliorent vers la perfection, tandis que
le coût de l'évaluation et de la prévention augmente. Il existe un certain niveau de qualité
cible "optimal" où la somme de la prévention, de l'évaluation et de l'échec
Machine Translated by Google
Garantie Coûts de
de reprise défaillance
de ferraille
couramment mesurés
Coûts
d'échec
Gestion du temps
réels
d'ingénierie Temps d'arrêt
en atelier et sur le terrain Coûts
Augmentation des stocks d'échec
Diminution de la capacité cachés
Problèmes de livraison
Commandes perdues
Figure 8.2 Coût caché de la qualité et effet multiplicateur (Campanella, 1990, avec
permission).
Coût total
Coût
Coût de la prévention
Coût d'échec
Qualité parfaite
Niveau de qualité
Figure 8.3 Modèle classique des coûts de qualité optimale (Juran, 1988,
avec permission).
les coûts sont au minimum. Les efforts visant à améliorer la qualité audelà du niveau
optimal entraîneront une augmentation des coûts totaux de la qualité.
Juran a reconnu que, dans de nombreux cas, le modèle classique des coûts de
qualité optimale est défectueux. Il est courant de constater que les niveaux de qualité
peuvent être améliorés économiquement jusqu'à la perfection littérale. Par exemple,
des millions d'emboutis peuvent être produits pratiquement sans erreur à partir d'une
matrice d'emboutissage bien conçue et bien construite. Le modèle classique a créé un
état d'esprit selon lequel la perfection n'était pas rentable. Le nouveau modèle de coût
de qualité optimale intègre la possibilité de zéro défaut et est illustré à la Fig. 8.4.
Machine Translated by Google
Coûts
totaux de la qualité
produit
bonne
unité
Coût
par
de
Coûts
d'échec
Coûts d'expertise et
de prévention
0 100
Qualité de conformité, %
Figure 8.4 Nouveau modèle de coûts de qualité optimale (Juran, 1988, avec permission).
Les coûts de qualité sont réduits en identifiant les causes profondes des problèmes de
qualité et en prenant des mesures pour éliminer ces causes. Les outils et techniques
décrits au Chap. 5 sont utiles dans cette entreprise. Le KAIZEN, la réingénierie et d'autres
approches d'amélioration continue sont couramment utilisés.
En règle générale, les coûts de qualité augmentent à mesure que le point de détection
remonte dans la chaîne de production et de distribution. Le coût le plus bas est
généralement obtenu lorsque les nonconformités sont évitées en premier lieu. Si des non
conformités surviennent, il est généralement moins coûteux de les détecter dès que
possible après leur apparition. Audelà de ce point, il y a une perte encourue à cause du
travail supplémentaire qui peut être perdu. Les coûts de qualité les plus élevés proviennent
des nonconformités détectées par les clients. En plus de la perte de remplacement ou de
réparation, une entreprise perd la clientèle et la réputation. Dans les cas extrêmes, des
litiges peuvent en résulter, ajoutant encore plus de coûts et de perte de clientèle.
Un autre avantage de la détection précoce est qu'elle fournit une rétroaction plus
significative pour aider à identifier les causes profondes. Le décalage temporel entre la
production et la panne sur le terrain rend très difficile la traçabilité de l'événement jusqu'à
l'état du processus qui l'a produit. Bien que le suivi des défaillances sur le terrain soit utile
pour évaluer de manière prospective un « correctif », il est généralement peu utile pour
évaluer rétrospectivement un problème.
Le service comptable est le principal responsable des questions comptables, y
compris le coût des systèmes qualité. Le service qualité
Machine Translated by Google
Après identification et maîtrise des coûts de défaillance les plus significatifs, les coûts
d'expertise sont analysés. Dépensonsnous trop en évaluation compte tenu des niveaux
inférieurs des coûts d'échec ? Ici, l'analyse des coûts de la qualité doit être complétée par
une analyse des risques pour s'assurer que les niveaux de coût d'échec et d'évaluation
sont équilibrés. L'analyse des coûts d'expertise est également utilisée pour justifier les
dépenses de prévention.
Machine Translated by Google
Les coûts de prévention de la qualité sont des investissements dans la découverte, l'incorporation et
le maintien de disciplines de prévention des défauts pour toutes les opérations affectant la qualité du
produit ou du service (Campanella, 1990). En tant que telle, la prévention doit être appliquée correctement
et non de manière uniforme.
Une grande amélioration a été démontrée grâce à la réaffectation des efforts de prévention des zones
ayant peu d'effet vers des zones où cela rapporte vraiment; encore une fois, le principe de Pareto en
action. Des exemples de coûts de qualité catégorisés sont fournis dans le tableau 8.2.
L'analyse des coûts de la qualité nécessite une base appropriée, de sorte que le coût de la qualité
soit analysé en pourcentage d'une base appropriée : généralement, une base appropriée est liée aux coûts
de la qualité d'une manière significative, bien connue des responsables qui examineront les rapports sur
les coûts de la qualité , et une mesure du volume d'affaires dans la zone où les mesures du coût de la
qualité doivent être appliquées.
Plusieurs bases sont souvent nécessaires pour obtenir une image complète de l'ampleur relative des
coûts de qualité. Certaines bases couramment utilisées sont (Campanella, 1990, p. 26):
• Une base de maind'œuvre (telle que la maind'œuvre totale, la maind'œuvre directe ou la main
d'œuvre appliquée) • Une base de coûts (telle que le coût d'atelier, le coût d'exploitation ou le total des matériaux et
travail)
• Une base de ventes (telle que les ventes nettes facturées ou la valeur des ventes de produits finis)
marchandises)
Alors que les dollars réels dépensés sont généralement le meilleur indicateur pour déterminer où les
projets d'amélioration de la qualité auront le plus grand impact sur les bénéfices et où des mesures
correctives doivent être prises, à moins que le taux de production ne soit relativement constant, cela ne
fournira pas une indication claire des tendances d'amélioration des coûts de la qualité. . Étant donné que
l'objectif du programme de coût de la qualité est l'amélioration au fil du temps, il est nécessaire d'ajuster
les données pour d'autres changements liés au temps tels que le taux de production, l'inflation, etc. Le
coût total de la qualité par rapport à une base applicable donne un indice qui peut être tracés et analysés
à l'aide de cartes de contrôle statistique.
Pour les analyses et la planification à long terme, les ventes nettes sont la base la plus souvent
utilisée pour les présentations à la haute direction (Campanella, 1990, p. 24). Si les ventes sont relativement
constantes dans le temps, l'analyse du coût de la qualité peut être effectuée sur des périodes de temps
relativement courtes. Dans d'autres industries, ce chiffre doit être calculé sur un intervalle de temps plus
long pour lisser les fluctuations importantes de la base des ventes. Par exemple, dans des industries telles
que la construction navale ou la fabrication de satellites, certaines périodes peuvent ne pas avoir de
livraisons, tandis que d'autres ont des montants importants. Il est important que les coûts de qualité
encourus soient liés aux ventes de la même période. Considérez les ventes comme une « opportunité »
pour que les coûts de qualité se produisent.
Machine Translated by Google
Coûts de prévention
Développement de produits/ Concevoir des revues d'avancement de la qualité ; activités d'aide à la conception; test de
services/design qualification de la conception du produit ; qualification en conception de services ; essais sur le terrain
Achat Revues des fournisseurs ; évaluation des fournisseurs ; les données techniques du bon de commande ;
Opérations (fabrication ou service) Validation des processus opérationnels ; planification de la qualité des
opérations (y compris la conception et le développement d'équipements de
mesure et de contrôle de la qualité); les opérations soutiennent la planification
de la qualité ; éducation de qualité des opérateurs ; opérateur spc/contrôle de processus
Opérations (fabrication ou service) Inspections, tests, audits des opérations planifiées (y compris vérification de la
maind'œuvre ; audits de la qualité des produits ou des services ; matériel
d'inspection et d'essai) ; inspections et tests d'installation ; épreuves spéciales;
mesures de contrôle de processus ; soutien de laboratoire ; équipement
de mesure (y compris les dotations aux amortissements, les frais d'équipement
de mesure, la maind'œuvre d'entretien et d'étalonnage); mentions et
certifications extérieures
Frais d'expertise externe Évaluation des performances sur le terrain ; évaluations de produits spéciaux ;
évaluation du stock terrain et des pièces de rechange
Examen des tests et des données d'inspection Y compris diverses évaluations de la qualité
Coûts de défaillance interne
Conception produit/service (interne) Concevoir des actions correctives ; reprise en raison de modifications de conception ; rebut en
raison de modifications de conception
Achat Coûts d'élimination des rejets de matériel acheté ; les coûts de remplacement du
matériel acheté ; action corrective du fournisseur ; reprise des rebuts fournisseurs ;
pertes matérielles incontrôlées
Opérations (produit ou service) Coûts de l'examen du matériel et des mesures correctives (y compris les coûts
d'élimination ; les coûts de dépannage ou d'analyse des défaillances
(opérations ); les coûts de soutien aux enquêtes ; les mesures correctives
des opérations ); coûts de reprise et de réparation des opérations ; frais de
réinspection/retest ; opérations supplémentaires ; coûts de ferraille
(opérations); produit ou service final déclassé ; échec interne pertes de maind'œuvre
Autres coûts de défaillance interne Y compris diverses évaluations de la qualité
Coûts des défaillances externes Enquête sur les réclamations/service client ou utilisateur ; marchandises retournées; les frais
de rénovation ; frais de rappel; demandes de garantie ; les frais de responsabilité; pénalités ;
bonne volonté client/utilisateur ; ventes perdues ; autres coûts de défaillance externes
PARTIE III
Contrôle de processus
Chapitre 9
Processus de quantification
Variation
Chapitre 10
Audits Qualité
Chapitre 11
Chaîne d'approvisionnement
Gestion
Machine Translated by Google
Machine Translated by Google
CHAPITRE 9
Processus de quantification
Variation
Machine Translated by Google
Machine Translated by Google
Statistiques descriptives
En règle générale, les statistiques descriptives sont calculées pour décrire les
propriétés des distributions empiriques, c'estàdire les distributions de données à
partir d'échantillons. Il y a trois domaines d'intérêt : l'emplacement ou la tendance
centrale de la distribution, sa dispersion et sa forme. L'analyste peut également
souhaiter avoir une idée de l'ampleur de l'erreur possible dans les estimations
statistiques. Le tableau 9.1 décrit certaines des mesures statistiques descriptives les plus courantes.
Les figures 9.1 à 9.4 illustrent des distributions avec différentes statistiques
descriptives.
De nombreux lecteurs connaissent peutêtre ces statistiques tirées de leur
programme d'études collégiales. Ils sont utilisés pour définir des intervalles de confiance
et pour accepter ou rejeter des tests statistiques via des tests d'hypothèses. Ces tests
dépendent quelque peu de la distribution spécifique de la population à partir de laquelle
les échantillons sont prélevés.
Étude énumérative. Une étude dans laquelle une action sera entreprise sur
l'univers.
Etude analytique. Une étude dans laquelle on agira sur un processus pour
améliorer la performance dans le futur.
155
Machine Translated by Google
Goûter
Statistique Description Équation/Symbole
Mesures de localisation
Mesures de dispersion
Gamme La distance entre le R = Le plus grand Le plus petit
exemples de valeurs extrêmes
Norme Une mesure de la variation N 2
démographique autour de la moyenne, dans les mêmes = − ∑ j= 1 ( xxj _ )
σx
déviation unités que les données d'origine N
Mesures de forme
Asymétrie Une mesure d'asymétrie. Zéro indique N
− − xxj−
[( NN
1 )( )3
une symétrie parfaite ; la distribution k = ( 2 )] ∑ 3
N j= 1_
normale a une asymétrie de zéro. X
2
ont des mesures d'aplatissement plus importantes. 3 (N 1 ) +
−
La distribution normale a un kurtosis
− −
(N 2 )( N 3)
de 3.
Mode
Moyenne
µ = 0, σ = 1
µ = 0, σ = 2
K = +1 K=0 K = –1
β2 = 4,5
β2 = 3,0
β2 = 1,0
Dans une étude analytique, l'accent est mis sur un processus et sur la manière de l'améliorer.
L'accent est mis sur l' avenir. Ainsi, contrairement aux études énumératives, qui font des inférences
sur l'univers effectivement étudié, les études analytiques s'intéressent à un univers qui reste à
produire. Le tableau 9.2 compare les études analytiques aux études énumératives (Provost,
1988).
En ce qui concerne l'analyse des processus, Deming (1986) commente :
L'analyse de la variance, les tests t, les intervalles de confiance et les autres techniques
statistiques enseignées dans les livres, aussi intéressantes soientelles, sont inappropriées
parce qu'elles ne fournissent aucune base de prédiction et parce qu'elles enterrent
l'information contenue dans l'ordre de production.
Dans les organisations, les processus sont exécutés comme des activités répétables,
répétées maintes et maintes fois. L'élément de temps est perdu dans les outils d'énumération
des intervalles de confiance et des tests d'hypothèses. Bien qu'ils soient utiles pour analyser les
données à court terme d'une expérience planifiée, par exemple, ces outils d'énumération
regroupent la variation qui se produit au fil du temps en une seule estimation de la variation de
l'échantillon.
C'est un problème persistant et malheureux avec l'utilisation des histogrammes.
Apparemment, la plupart des praticiens apprennent que les histogrammes sont utiles pour montrer
graphiquement la forme des données, ce qui est fondamentalement vrai.
Malheureusement, la forme des données et la forme attendue du processus sont complètement
différentes si le processus n'est pas stable. Un exemple en sera montré prochainement.
Échantillonnage d'acceptation
L'échantillonnage pour acceptation est une technique traditionnelle de contrôle de la qualité qui
est appliquée à des lots discrets ou à des lots d'un produit. (Un lot est une collection d'unités
physiques ; le terme lot est généralement appliqué aux matériaux chimiques).
Le lot ou le lot est généralement présenté au service d'inspection par un fournisseur ou un service
de production. Le service contrôle
Machine Translated by Google
inspecte ensuite un échantillon du lot ou du lot et, sur la base des résultats de l'inspection, détermine
l'acceptabilité du lot ou du lot. Les schémas d'échantillonnage pour acceptation se composent
généralement de trois éléments :
entreprendre à l'avenir. Les actions futures incluent des options telles que le passage à un
échantillonnage réduit ou renforcé, le passage à une inspection à 100 %, l'arrêt du
processus, etc.
Les méthodes d'échantillonnage d'acceptation sont généralement basées sur ANSI/ASQ Z1.4
(anciennement MILSTD 105E), ou des variantes du plan connues sous le nom de tables
d'échantillonnage DodgeRomig.
Ces plans d'échantillonnage pour acceptation n'ont absolument pas leur place dans une
organisation qualité moderne. Ils doivent être rejetés en bonne et due forme par le professionnel de
la qualité. Les plans d'échantillonnage sont fondamentalement erronés en supposant que les
échantillons proviennent d'une population homogène (c'estàdire caractérisée par une distribution
statistique unique), alors qu'il n'y a aucune preuve que les échantillons ont été tirés d'un processus
stable (la seule situation dans laquelle les échantillons proviendront d'une distribution unique).
Lorsqu'il est appliqué à un processus instable, la fiabilité du plan d'échantillonnage pour acceptation
est erronée et en fait imprévisible (puisque, par définition, la sortie d'un processus instable est
imprévisible).
Si un processus est en production continue, Deming (1986) a montré qu'il est préférable d'utiliser
une carte p (une carte de contrôle discutée dans la section suivante) pour le contrôle du processus
que d'appliquer un plan d'échantillonnage pour acceptation. Sur la base de la carte p stable, vous
pouvez déterminer la fraction moyenne de processus défectueux, à partir de laquelle vous pouvez
déterminer s'il faut trier la sortie ou l'expédier en appliquant la règle du tout ou rien de Deming :
où K1 est le coût d'inspection d'une pièce et K2 est le coût d'expédition d'une pièce défectueuse, y
compris la clientèle perdue. Par exemple, si K1 = 1 $ et K2 = 100 $, la sortie d'un processus avec
une fraction moyenne de défauts inférieure à 1 % serait expédiée sans inspection supplémentaire ; si
la moyenne du processus était de 1 % ou plus, la sortie serait triée.
Notez que cette discussion ne s'applique pas aux défauts critiques ou aux défectueux critiques.
L'échantillonnage des défauts critiques ou défectueux est effectué uniquement pour confirmer qu'une
inspection ou un test précédent à 100 % a été efficace.
Comme le montre la règle de Deming, les alternatives sont l'absence d'inspection, l'inspection
à 100 % ou l'échantillonnage et l'analyse à l'aide d'une carte de contrôle statistique des processus.
Les programmes des fournisseurs doivent mettre l'accent sur la nécessité du contrôle des processus
comme condition de vente, comme nous le verrons plus loin dans le chapitre.
Machine Translated by Google
Écrivez la lettre « a » sur une feuille de papier. Faites maintenant un autre a comme le premier,
puis un autre et un autre jusqu'à ce que vous ayez une série de a (a, a, a, ...).
Vous essayez de faire en sorte que tous les a soient identiques, mais vous ne le faites pas ; vous
ne pouvez pas. Vous êtes prêt à accepter cela comme un fait empiriquement établi. Mais qu'en
estil? Voyons ce que cela signifie par rapport au contrôle. Pourquoi ne pouvonsnous pas faire
une chose simple comme faire en sorte que tous les a soient identiques ? Votre réponse conduit
à une généralisation que nous sommes peutêtre tous prêts à accepter. C'est qu'il existe de
nombreuses causes de variabilité parmi les a : le papier n'était pas lisse, la mine du crayon n'était
pas uniforme, et la variabilité inévitable de votre environnement extérieur a réagi sur vous pour
introduire une variation dans les a. Mais sontce là les seules causes de variabilité des a ?
Probablement pas.
Nous acceptons nos limites humaines et disons qu'il y a probablement de nombreux autres
facteurs. Si nous pouvions seulement nommer toutes les raisons pour lesquelles nous ne
pouvons pas rendre les a identiques, nous aurions assurément une meilleure compréhension
d'une certaine partie de la nature que nous n'en avons actuellement. Bien sûr, cette conception
de ce que signifie être capable de faire ce que nous voulons faire n'est pas nouvelle ; elle
n'appartient exclusivement à aucun domaine de la pensée humaine ; c'est communément admis.
Le point à souligner dans cette illustration simple est que nous sommes limités à faire ce que
nous voulons faire ; que faire ce qu'on se propose de faire, même dans une chose aussi simple
que de faire des a pareils, exige des connaissances presque infinies comparées à celles que
nous possédons maintenant. Il s'ensuit donc que puisque nous sommes ainsi disposés à accepter
comme axiomatique que nous ne pouvons pas faire ce que nous voulons faire et que nous ne
pouvons pas espérer comprendre pourquoi nous ne le pouvons pas, que nous devons également
accepter comme axiomatique qu'une qualité contrôlée ne sera pas une qualité constante. Au lieu
de cela, une qualité contrôlée doit être une qualité variable. C'est la première caractéristique.
Mais revenons aux résultats de l'expérience sur les a et nous en apprendrons davantage sur
le contrôle. Vos a sont différents de mes a; il y a quelque chose dans vos a qui les rend vôtres et
quelque chose dans mes a qui les rend miens. Certes, tous vos a ne se ressemblent pas. Tous
mes a ne se ressemblent pas non plus. Chaque groupe de a varie dans une certaine plage et
pourtant chaque groupe se distingue des autres. Cette variabilité distincte et, pour ainsi dire,
constante dans certaines limites est la deuxième caractéristique du contrôle.
Un phénomène sera dit maîtrisé lorsque, grâce à l'utilisation de l'expérience passée, nous
pouvons prédire, au moins dans certaines limites, comment le phénomène devrait évoluer dans
le futur. Ici, il est entendu que la prédiction dans les limites signifie que nous pouvons énoncer,
au moins approximativement, la probabilité que le phénomène observé tombe dans les limites
données.
Machine Translated by Google
Le point critique de cette définition est que le contrôle n'est pas défini comme l'absence totale
de variation. Le contrôle est simplement un état où toute variation est une variation prévisible.
Dans toutes les formes de prédiction, il y a un élément de hasard. Toute cause de variation
inconnue est appelée cause fortuite. Si l'influence d'une cause fortuite particulière est très faible
et si le nombre de causes fortuites de variation est très grand et relativement constant, nous
avons une situation où la variation est prévisible dans certaines limites. Vous pouvez voir à partir
de notre définition cidessus qu'un tel système est considéré comme un système contrôlé. Deming
utilise le terme « cause commune » plutôt que « cause fortuite », et nous utiliserons le terme
« cause commune » de Deming car il est le plus utilisé.
Un exemple d'un tel système contrôlé pourrait être la production et la distribution de pêches.
Si vous alliez dans un verger vers un pêcher particulier au bon moment de l'année, vous trouveriez
un arbre chargé de pêchers (avec un peu de chance). Le poids des pêches variera. Cependant,
si vous pesiez chaque pêche sur l'arbre, vous remarqueriez probablement qu'il y avait un modèle
distinct pour les poids. En fait, si vous dessiniez un petit échantillon aléatoire de, disons, 25
pêches, vous pourriez probablement prédire le poids de ces pêches restant sur l'arbre. Cette
prévisibilité est l'essence même d'un phénomène maîtrisé. Le nombre de causes communes qui
expliquent la variation du poids des pêches est astronomique, mais relativement constant.
Ces résultats étaient ensuite signalés à un responsable, qui châtiait invariablement les opérateurs
pour un nombre élevé de perles rouges. Si la production de l'opératrice s'améliorait sur
l'échantillon suivant, elle était récompensée ; si la production de perles blanches diminuait, plus
châtiant.
Bien sûr, la plupart des observateurs dans le public riaient de bon cœur des actions de la
direction, étant donné que chaque lot de production n'était qu'un plongeon dans un seau contenant
un pourcentage fixe de perles rouges. C'était la beauté de la démonstration, et Deming établirait
l'analogie avec les processus commerciaux généraux, où la direction châtierait les employés pour
des variations de processus qui étaient largement hors de leur contrôle. C'estàdire que la
plupart des employés opérationnels n'ont aucune implication dans la conception de leur procédé,
les qualifications de leurs fournisseurs, les spécifications, etc.
Machine Translated by Google
0,16
0,12
Proportion
PCL = 0,094
0,08
0,04
Jan Mar PeutJuilSep Nov Jan Mar PeutJuilSep Nov Jan Mar PeutJuilSep Nov Jan Mar
Un graphique de contrôle du « taux d'erreur » typique de la perle rouge est illustré à la Fig. 9.5.
La carte de contrôle montre la variation entre les observations de processus : chaque trempage
dans le seau a produit un pourcentage différent de billes rouges. Du point de vue de l'analyse des
processus, le processus atil changé ?
La carte de contrôle comprend des lignes intitulées UCL (un acronyme pour limite de contrôle
supérieure) et LCL (pour limite de contrôle inférieure). Ces limites de contrôle sont calculées sur la
base des statistiques des données et fournissent les limites attendues du processus. Les limites de
contrôle dans cet exemple indiquent qu'entre 0 et 11 billes rouges (0 et 22 pour cent) doivent être
attendues dans chaque échantillon de 50 billes.
Ainsi, les limites de contrôle pour ce processus stable fournissent un moyen de prédire les
performances futures du processus. Considérez s'il s'agissait du taux d'erreur d'un processus clé.
La prévision de ses performances futures faciliterait le processus de budgétisation ou l'allocation
générale des ressources nécessaires pour répondre aux exigences opérationnelles compte tenu du
gaspillage, ou peutêtre fourniraitelle simplement une justification économique pour l'amélioration
des processus.
La figure 9.5 démontre également une prémisse fondamentale de l'analyse des processus : la
variation existe dans les processus, tout comme Shewhart l'a décrit dans son exemple d'écriture.
Les valeurs tracées dans la figure varient d'environ 3 à 20 %. Si ces données représentaient le taux
d'erreur d'un processus clé de votre organisation, estce que quelqu'un se demanderait pourquoi le
processus a "sauté" à 20 % ? Insisteraientils pour que quelqu'un enquête et détermine ce qui s'est
passé pour que le taux d'erreur de processus augmente si considérablement, alors que les deux
mois précédents étaient de 4 % et 5 % ? Lorsqu'il est tombé le mois suivant à 0,04, féliciteraientils
les gens pour leurs efforts ou se féliciteraientils avec suffisance d'avoir éteint le feu ?
Chacune de ces réactions devrait être accueillie avec le même amusement que dans
l'expérience Red Bead de Deming. La carte de contrôle indique clairement que
Machine Translated by Google
le processus n'a pas changé : il est stable ; il est sous contrôle statistique. Personne n'a changé
le seau : c'est le même seau, avec le même pourcentage de perles rouges.
Inutile de dire que tous les phénomènes ne découlent pas de systèmes constants de causes
communes. Parfois, la variation est causée par une source de variation qui ne fait pas partie du
système constant. Ces sources de variation ont été qualifiées de causes attribuables par
Shewhart ; Deming les appelle des causes spéciales de variation. L'expérience montre que des
causes particulières de variation peuvent généralement être trouvées et éliminées.
La variation par rapport à une cause commune est révélatrice du système. Changer la
quantité de variation de cause commune nécessite des changements fondamentaux au
système luimême. Les causes particulières de variation peuvent être identifiées par la carte
de contrôle et souvent rapidement éliminées.
La carte de contrôle de la Fig. 9.5 illustre le besoin de méthodes statistiques pour déterminer
le type de variation. Les cartes de contrôle répondent à la question : Ces variations sontelles
intégrées au système ou indiquentelles un changement dans le système ?
La variation entre les limites de contrôle désignées par les lignes UCL et LCL est considérée
comme une variation par rapport au système de cause commune. Toute variation audelà de ces
limites est associée à des causes particulières de variation.
Tout système ne présentant qu'une variation de cause commune est considéré comme contrôlé
statistiquement. Il faut noter que les limites de contrôle ne sont pas définies par la direction ou les
clients : elles sont calculées à partir des données en utilisant la théorie statistique. Une carte de
contrôle est un outil pratique qui fournit une définition opérationnelle d'une cause spéciale.
Autrement dit, nous ne pouvons pas déterminer quelles causes de variation dans le processus
sont des causes spéciales tant que la carte de contrôle ne les identifie pas comme telles.
Il existe deux grandes catégories de cartes de contrôle : celles à utiliser avec des données
variables ou continues (par exemple, des mesures) et celles à utiliser avec des données d'attributs
(par exemple, des comptages).
La base de toutes les cartes de contrôle est le sousgroupe rationnel. Chaque point tracé sur
le graphique contient les données d'un seul sousgroupe. Les sousgroupes sont considérés
comme des sousgroupes rationnels si « tous les items sont produits dans des conditions où
seuls des effets aléatoires sont responsables de la variation observée » (Nelson, 1988). Nous
formons souvent des sousgroupes rationnels en utilisant des éléments consécutifs du processus
ou des éléments représentatifs du processus pendant une courte période. Cela réduit la
probabilité que des causes particulières de variation se produisent au sein du sousgroupe. La
variation intrasousgroupe est utilisée pour définir les limites de contrôle, qui fournissent notre
estimation de la variation de cause commune dans le processus (c'estàdire la variation à long
terme entre les sousgroupes), il est donc important d'exclure les causes particulières de variation
dans cette estimation.
Machine Translated by Google
La définition des limites de contrôle (c'estàdire la variation future attendue dans la statistique
tracée) à l'aide de la variation intrasousgroupe implique que la variation à court terme est utilisée
pour prédire la variation à long terme attendue. Il s'agit d'une définition parfaite de la stabilité du
processus : si la variation à court terme peut être utilisée pour prédire la variation à plus long terme,
alors le processus est stable (c'estàdire sous contrôle statistique). Notez le net contraste entre cette
approche et l' approche d'échantillonnage aléatoire utilisée pour les méthodes statistiques
énumératives, où la variation à court terme est regroupée avec la variation à plus long terme pour
calculer un écart type d'échantillon.
température 5 minutes plus tôt. La corrélation automatique diminue avec le temps, de sorte
que la température une heure plus tard peut être moins dépendante. • Processus de
service. Le temps d'attente (c'estàdire le temps dans la file d'attente) d'un client donné
à la caisse de l'épicerie est susceptible
• Fabrication de pièces discrètes. Lorsque des contrôles de rétroaction sont utilisés pour
contrôler un processus automatisé, cela entraîne une dépendance puisque le processus
s'ajuste en fonction de ces mesures antérieures.
2. Les observations au sein d'un sousgroupe proviennent d'un seul processus stable. Il a été
mentionné que les sousgroupes sont souvent formés sur un petit intervalle de temps pour
limiter la possibilité que des causes spéciales se glissent dans le sousgroupe. Si le sous
groupe contient la sortie de processus à flux multiples, la variation au sein du sousgroupe
est susceptible d'être plus importante que la variation à plus long terme entre les sous
groupes. Des exemples de cela incluent le moulage à plusieurs cavités, plusieurs stations
de remplissage de têtes ou des échantillons provenant du guichet et de l'agent de crédit à
la banque.
3. Les sousgroupes sont formés à partir d'une collecte de données chronologique. L' axe des
abscisses de la carte de contrôle est ordonné dans le temps, de sorte que les sousgroupes
à droite de la carte représentent une période de temps postérieure aux sousgroupes à leur
gauche. Les sousgroupes rationnels ne peuvent pas être formés à partir d'un ensemble de
Machine Translated by Google
des données aléatoires du processus, ou une boîte de pièces expédiées par votre fournisseur,
car la séquence temporelle des données a été perdue.
Dans SPC, la moyenne, la plage et l'écart type sont les statistiques les plus souvent utilisées pour analyser
les données de mesure. Des cartes de contrôle sont utilisées pour surveiller ces statistiques. Un point hors
de contrôle pour l'une de ces statistiques est une indication qu'une cause spéciale de variation est
présente et qu'une enquête immédiate doit être faite pour identifier la cause spéciale.
Le tableau 9.3 contient 25 sousgroupes de cinq observations chacun. La moyenne et la fourchette pour
chaque sousgroupe sont indiquées dans le tableau.
Équations de limite de contrôle pour les graphiques de moyenne et de plage Les limites de contrôle pour les graphiques de
moyenne et de plage sont calculées de telle sorte qu'il est hautement improbable qu'une moyenne ou une plage de sousgroupe
d'un processus stable se situe en dehors des limites. Toutes les limites de contrôle sont fixées à plus et moins trois écartstypes
par rapport à la ligne centrale du graphique. Ainsi, les limites de contrôle pour les moyennes des sousgroupes sont plus et
moins trois écartstypes de la moyenne par rapport à la moyenne générale ; les limites de contrôle pour
Machine Translated by Google
les plages des sousgroupes sont plus et moins trois écartstypes de la plage
par rapport à la plage moyenne. Ces limites de contrôle sont assez robustes
visàvis de la nonnormalité dans la distribution du processus.
Pour faciliter les calculs, des constantes sont utilisées dans les équations des limites de
contrôle. Le tableau de l'annexe 1 fournit les constantes de la carte de contrôle pour les sous
groupes de 25 personnes ou moins.
LCL = RD
3
UCL = RD
4
Machine Translated by Google
Les limites de contrôle sont calculées à partir des données du tableau 9.3 comme suit :
LCL R3 _
DR 0 14 76 0 =. = ×=
UCL R
== 2 DR
4
115. × = 14. 7622
31 .
Puisqu'il n'est pas possible d'avoir une plage de sousgroupes inférieure à zéro, le LCL
n'est pas indiqué sur la carte de contrôle des plages.
LCL = XAR 2
UCL 2 XAR = +
Les limites de contrôle sont calculées à partir des données du tableau 9.3 comme suit :
Les cartes de contrôle de moyenne et de plage remplies sont illustrées à la Fig. 9.6.
Les graphiques de la Fig. 9.6 montrent un processus sous contrôle statistique, de sorte
que les limites de variabilité de ce processus sont prévisibles (à l'aide des limites de contrôle).
Étant donné que le processus est sous contrôle statistique, nous pouvons également faire des
prédictions sur notre capacité à répondre aux exigences des clients, comme indiqué dans la
prochaine section sur la capacité du processus.
110
UCL = 108.001
106
102
Moyennes
PCL = 99,488
98
94
LCL = 90,975
90
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
35
UCL = 31.210
30
25
Gammes
20
15 RBAR = 14.760
dix
5
LCL = 0,000
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
doit être utilisé à la place du tableau des plages. Bien que la plage soit plus facile à calculer et
plus facile à comprendre pour la plupart des gens, si les analyses doivent être interprétées par
du personnel connaissant les statistiques et que les calculs ne posent pas de problème, le
graphique d'écart type est préféré pour toutes les tailles de sousgroupes. Dans la grande
majorité des applications, un logiciel sera utilisé pour analyser le processus.
Le logiciel calculera automatiquement toutes les limites de contrôle et appliquera des règles de
test d'exécution supplémentaires qui seront discutées sous peu. Le logiciel MS Excel utilisé
pour ces exemples ne coûte que quelques centaines de dollars.
X=
somme des mesures des sousgroupes
taille du sousgroupe
n 2
∑ ( xii − X )
=1
s=
je
n− 1
les moyennes des sousgroupes, la ligne médiane du graphique des moyennes). C'est un
point important : l'utilisation de la moyenne globale introduirait une variation de cause
spéciale si le processus était hors de contrôle, sousestimant ainsi la capacité du
processus, peutêtre de manière significative.
L'écarttype calculé pour chaque sousgroupe est présenté dans le tableau 9.3.
Équations de limite de contrôle pour les graphiques de moyenne et de sigma Les limites de contrôle pour les graphiques
de moyenne et de sigma sont calculées de sorte qu'il est hautement improbable qu'une moyenne de sousgroupe ou un
sigma d'un processus stable tombe en dehors des limites. Toutes les limites de contrôle sont fixées à plus et moins trois
écartstypes par rapport à la ligne centrale du graphique. Ainsi, les limites de contrôle pour les moyennes des sous
groupes sont de plus et moins trois écartstypes de la moyenne par rapport à la moyenne générale. Les limites de contrôle
pour les sigma des sousgroupes sont plus et moins trois écartstypes de sigma par rapport au sigma moyen.
Équations de limite de contrôle pour les graphiques Sigma basés sur SBar
LCL = B 3s
UCL = B
4
Pour illustrer les calculs et comparer la méthode de l'intervalle avec les résultats de l'écart
type, les données utilisées dans l'exemple précédent seront réanalysées en utilisant
l'écart type du sousgroupe plutôt que l'intervalle du sousgroupe.
Les limites de contrôle sont calculées à partir des données du tableau 9.3 comme suit :
155 .45
s = somme des sigmas des sous = = 6 .218
groupes nombre de sousgroupes 25
LCL B s 0 6 218 0. = = =
×
s 3
UCL = B s = × 2.6.218
089= 12.989
s 4
Puisqu'il n'est pas possible d'avoir un sousgroupe sigma inférieur à zéro, le LCL n'est
pas indiqué sur la carte de contrôle pour sigma.
Machine Translated by Google
Équations de limite de contrôle pour les graphiques de moyennes basés sur SBar
LCL = XA 3
UCL 3 XAs = +
LCL XA s 3
== . 6 2 18 .90 63=×
99 .5 1 427 .
X
UCL = +XA
3s=+ 99 .5 1 427
. 6 218 108
. =×
37 .
X
Les cartes de contrôle moyenne et sigma remplies sont présentées à la Fig. 9.7.
Notez que les limites de contrôle du graphique des moyennes ne diffèrent que
légèrement des limites calculées à l'aide des plages.
110
UCL = 108.363
106
102
PCL = 99,488
Moyennes
98
94
LCL = 90,613
90
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
14
UCL = 12.990
12
dix
Sigmas
8
6 SBAR = 6,218
2
LCL = 0,000
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Figure 9.7 Cartes de contrôle moyennes et sigma remplies. Notez que les conclusions atteintes sont les
mêmes que lorsque les plages ont été utilisées.
Machine Translated by Google
Calculs pour les graphiques de plages mobiles Comme pour les graphiques de moyenne et de
plage, la plage est calculée comme indiqué cidessus,
Ici, la plage est calculée comme la valeur absolue de la différence entre une
paire consécutive de mesures de processus, ce qui répond à l'exigence d'un sous
groupe rationnel dans l'estimation de la variation à court terme. La limite de contrôle
de plage est calculée comme cela a été décrit pour les graphiques de moyennes et
de plages, en utilisant la constante D4 pour les sousgroupes de deux, soit 3,267. C'est,
LCL = 0 (pour n = 2)
UCL = 3,267 × R
Des recherches récentes ont soutenu l'idée que la carte de plage mobile
identifiera nécessairement la même instabilité de processus que la carte des
individus : une grande valeur dans l'observation sur la carte des individus est
susceptible de créer également une (souvent deux) valeurs de plage mobile qui
sont hors de contrôle. Il est certainement plus facile de présenter le graphique des
individus sans le graphique de l'étendue mobile ; cependant, l'analyste doit être
conscient qu'il existe des cas où le graphique de plage mobile a été utile pour le dépannage.
Le tableau 9.4 contient 25 mesures. Pour faciliter la comparaison, les
mesures sont les premières observations de chaque sousgroupe utilisé dans les
exemples précédents de cartes de contrôle moyenne/étendue et moyenne/écarttype.
Les limites de contrôle pour le graphique de plage mobile sont calculées à partir de ce
données comme suit :
UCL RD
==4 3 .267 8×17
= . 26 69 .
R
Machine Translated by Google
Échantillon 1 Gamme
110 Aucun
103 7
97 6
96 1
105 9
110 5
100 dix
93 7
90 3
103 13
97 6
103 6
90 13
97 7
99 2
106 7
90 16
96 6
109 13
90 19
91 1
108 17
96 12
101 5
96 5
Puisqu'il n'est pas possible d'avoir une plage de sousgroupes inférieure à zéro, le
LCL n'est pas indiqué sur la carte de contrôle des plages.
Graphiques d'équations de limite de contrôle pour les individus
UCL R = +X=2+ ×
XER 2 .66
UC LX =+ RE = +2 99 0 17
2 66 8 73.
.120 × . = .
X
125
UCL = 120.752
115
105
Observations
PCL = 99.040
95
85
LCL = 77,328
75
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Distribution de
moyennes
Répartition des
observations
individuelles
Figure 9.9 Comparaison de la distribution des observations individuelles avec la distribution des
moyennes des sousgroupes calculées à partir des observations.
Les calculs de limite de contrôle pour les moyennes et les graphiques individuels présentés
cidessus sont basés sur les propriétés de la distribution normale. L'utilisation de trois limites
sigma permet une détection adéquate des causes spéciales, sans
Machine Translated by Google
Figure 9.10 Exemple de limites de contrôle trompeuses utilisant des hypothèses de distribution
normale (Keller 2011b).
Si l'on soupçonne que les données des individus ne sont pas normales, ou si elles
ne sont pas connues, il y a un risque à utiliser les calculs de limite de contrôle des
individus standard indiqués cidessus. Considérez les données de temps de cycle
illustrées à la Fig. 9.10, tracées sur le graphique d'un individu. La limite de contrôle
inférieure calculée est de –7,35 minutes, ce qui est évidemment impossible. L'histogramme
à gauche de la carte de contrôle montre les données à biaiser et délimitées près de zéro.
La limite de contrôle négative offre ainsi une large zone d'insensibilité : si le temps de
cycle du processus diminue en raison d'une cause particulière (par exemple, une
amélioration du processus), il ne serait pas détecté en raison de la limite de contrôle
inférieure imprécise. Considérez les mêmes données tracées dans la Fig. 9.11, où les
limites de contrôle sont basées sur des calculs non normaux, et il est clair que ce
graphique est plus capable de détecter les décalages de processus.
Figure 9.11 Limites de contrôle non normales appliquées aux données de la Fig. 9.10 (Keller 2011b).
Équations de limite de contrôle des cartes p Comme toutes les cartes de contrôle, les
cartes p se composent de trois lignes directrices : la ligne médiane, une limite de contrôle
inférieure et une limite de contrôle supérieure. La ligne médiane est la proportion moyenne
de défectueux et les deux limites de contrôle sont fixées à plus et moins trois écartstypes.
Si le processus est sous contrôle statistique, alors pratiquement toutes les proportions
doivent se situer entre les limites de contrôle et elles doivent fluctuer de manière aléatoire
autour de la ligne médiane.
−
( 1 ) pp
LCL p
= 3
n
−
( 1 ) pp
UCL p= + 3
n
Machine Translated by Google
Dans les équations cidessus, n est la taille du sousgroupe. Si la taille des sousgroupes
varie, les limites de contrôle varieront également, se rapprochant à mesure que n
augmente.
Comme pour toutes les cartes de contrôle, une cause spéciale est probablement présente
s'il y a des points audelà de la limite de contrôle supérieure ou inférieure. L'analyse des
modèles de carte p entre les limites de contrôle est extrêmement compliquée si la taille de
l'échantillon varie car la distribution de p varie avec la taille de l'échantillon.
Les données du tableau 9.6 ont été obtenues en ouvrant des caisses sélectionnées au
hasard dans chaque expédition et en comptant le nombre de pêches meurtries.
Il y a 250 pêches par caisse. Normalement, les échantillons se composent d'une caisse
Expédition
Nombre Caisses Les pêches Meurtri p
1 1 250 47 0,188
2 1 250 42 0,168
3 1 250 55 0,220
4 1 250 51 0,204
5 1 250 46 0,184
6 1 250 61 0,244
7 1 250 39 0,156
8 1 250 44 0,176
9 1 250 41 0,164
dix 1 250 51 0,204
11 2 500 88 0,176
12 2 500 101 0,202
13 2 500 101 0,202
14 1 250 40 0,160
15 1 250 48 0,192
16 1 250 47 0,188
17 1 250 50 0,200
18 1 250 48 0,192
19 1 250 57 0,228
20 1 250 45 0,180
21 1 250 43 0,172
22 2 500 105 0,210
23 2 500 98 0,196
24 2 500 100 0,200
25 2 500 96 0,192
TOTAUX 8000 1544
179
Q uantification des variations de processus
Par expédition. Cependant, lorsqu'une aide à temps partiel est disponible, des échantillons de deux
caisses sont prélevés.
En utilisant les données cidessus, la ligne médiane et les limites de contrôle sont trouvées
comme suit :
−
( 1 ) pp = . ) 0. 193 1 0 193. × −
UCL p3 = + 0 193 3 + = 0,268
n ( 25 0
n = 500 (2 caisses) :
. 193 1 0 193. × −
)0
LCL = 0 .193 3− = 0 .140
( 500
. 193 1 0 193. × −
)0
UCL = 0 19 . 3 3 + = 0 .246
( 500
Les limites de contrôle et les proportions des sousgroupes sont présentées à la Fig. 9.12.
Conseils pour l'utilisation des graphiques p Dans certains cas, les « limites de contrôle
mobiles » peuvent ne pas être nécessaires et la taille moyenne de l'échantillon (nombre
total inspecté divisé par le nombre de sousgroupes) peut être utilisée pour calculer les
limites de contrôle. Par exemple, avec notre exemple, la taille de l'échantillon a doublé,
passant de 250 pêches à 500, mais les limites de contrôle n'ont pratiquement pas changé.
Le tableau 9.7 illustre les différentes limites de contrôle basées sur 250 pêches, 500
pêches et la taille moyenne de l'échantillon, qui est de 8 000 ÷ 25 = 320 pêches.
Notez que les conclusions concernant la performance du processus sont les mêmes lors
de l'utilisation de la taille moyenne de l'échantillon car elles utilisent les tailles exactes de
l'échantillon. C'est généralement le cas si la variation de la taille de l'échantillon n'est pas
trop grande. Il existe de nombreuses règles empiriques, mais la plupart d'entre elles sont
extrêmement conservatrices. La meilleure façon d'évaluer les limites en fonction de la taille
moyenne de l'échantillon est de vérifier comme indiqué cidessus. La CPS vise à améliorer
la prise de décision. En général, utilisez la méthode la plus simple qui mène à des décisions correctes.
Machine Translated by Google
0,27
UCL = 0,246
0,23
PCL = 0,193
Proportion
0,19
0,15
LCL = 0,140
0,11
1 3 5 7 9 11 13 15 17 19 21 23 25
Contrôle supérieur
Limite inférieure de contrôle de la taille de l'échantillon Limite
250 0,1181 0,2679
500 0,1400 0,2460
320 0,1268 0,2592
Équations de limite de contrôle pour les cartes np Comme toutes les cartes de contrôle,
les cartes np se composent de trois lignes directrices : la ligne centrale, une limite de
contrôle inférieure et une limite de contrôle supérieure. La ligne médiane est le nombre
moyen de défectueux par sousgroupe et les deux limites de contrôle sont fixées à plus
et moins trois écartstypes. Si le processus est sous contrôle statistique, alors pratiquement tous
Machine Translated by Google
− 3 np (p1−)
LCL = np
3=+ −
UCL np np (p1 )
Noter que
np
p=
n
Les données du tableau 9.8 ont été obtenues en ouvrant des caisses sélectionnées
au hasard dans chaque expédition et en comptant le nombre de pêches meurtries. Il
y a 250 pêches par caisse (la constante n est requise pour les cartes np ).
En utilisant les données cidessus, la ligne médiane et les limites de contrôle sont trouvées
comme suit :
27 .93
=
LCL np 3 1 np( p) = 27,93 3− 27 93 1. × − 12 .99
250 =
27 .93
3=+
UCL np 1 ( ) =p np 27 .93 3 27 93 .1 + × − 250
42 .88
=
d' événements. Par exemple, lors de l'utilisation d'un tableau p , on compterait les pêches
meurtries. Lors de l'utilisation d'un graphique en U , on comptait les ecchymoses.
Équations de limite de contrôle pour les cartes u Comme toutes les cartes de contrôle, les cartes
u se composent de trois lignes directrices : la ligne médiane, une limite de contrôle inférieure et
une limite de contrôle supérieure. La ligne médiane est le nombre moyen d'occurrences par unité et
Machine Translated by Google
47,5
37,5
32,5
Défectueux
PCL = 27,933
27,5
22,5
17.5
LCL = 12,990
12.5
1 4 7 dix 13 16 19 22 25 28
les deux limites de contrôle sont fixées à plus et moins trois écarts types. Si le
processus est sous contrôle statistique, alors pratiquement toutes les occurrences
de sousgroupes par unité doivent se situer entre les limites de contrôle et elles
doivent fluctuer de manière aléatoire autour de la ligne médiane.
tu
LCL vous
= 3
n
tu
UCL u 3 = +
n
Dans les équations cidessus, n est la taille du sousgroupe en unités. Si la taille du sous
groupe varie, les limites de contrôle varieront également.
Les données du tableau 9.9 ont été obtenues en ouvrant des caisses sélectionnées au hasard
dans chaque expédition et en comptant le nombre de meurtrissures sur les pêches.
Il y a 250 pêches par caisse. La taille de notre unité sera considérée comme une caisse complète ;
Machine Translated by Google
1 1 47 47
2 1 42 42
3 1 55 55
4 1 51 51
5 1 46 46
6 1 61 61
7 1 39 39
8 1 44 44
9 1 41 41
dix 1 51 51
11 2 88 44
12 2 101 50,5
13 2 101 50,5
14 1 40 40
15 1 48 48
16 1 47 47
17 1 50 50
18 1 48 48
19 1 57 57
20 1 45 45
21 1 43 43
22 2 105 52,5
23 2 98 49
24 2 100 50
25 2 96 48
TOTAUX 32 1544
c'estàdire que nous compterons les caisses plutôt que les pêches ellesmêmes.
Normalement, les échantillons consistent en une caisse par envoi. Cependant, lorsqu'une aide à
temps partiel est disponible, des échantillons de deux caisses sont prélevés.
En utilisant les données cidessus, la ligne médiane et les limites de contrôle sont trouvées
comme suit :
tu 48 .25
LCL vous
= 3 = 48 .25 3− = 27 .411
n 1
tu 48 .25
UCL u 3 = + = 48,25 3 + .
= 69 089
n 1
n = 2 unités :
48 .25
LCL = 48 .25 3− = 33 .514
2
48 .25
UCL = 48 .25 3 + = 6 2.986
2
Les limites de contrôle et les occurrences de sousgroupes par unité sont illustrées à
la Fig. 9.14.
70
UCL = 62.985
55
Défauts
unité
par
PCL = 48.250
40
LCL = 33,515
25
1 3 5 7 9 11 13 15 17 19 21 23 25
Figure 9.14 Exemple de graphique en u construit à l'aide du logiciel Green Belt XL (avec
l'aimable autorisation de www.qualityamerica.com avec autorisation).
Machine Translated by Google
Le lecteur peut noter que les données utilisées pour construire la carte u étaient les
mêmes que celles utilisées pour la carte p , sauf que nous avons considéré les comptages
comme étant des comptages d'occurrences (ecchymoses) au lieu de comptages
d'éléments physiques (pêches meurtries). Les implications pratiques de l'utilisation d'une
carte u alors qu'une carte p aurait dû être utilisée, ou vice versa, ne sont généralement
pas sérieuses. Les décisions basées sur les cartes de contrôle seront assez similaires
dans la plupart des cas, qu'une carte u ou une carte p soit utilisée.
Une façon d'aider à déterminer si un ensemble particulier de données convient ou
non à une carte u ou à une carte p consiste à examiner l'équation utilisée pour calculer la
ligne centrale de la carte de contrôle. Si l'unité de mesure est la même au numérateur et
au dénominateur, une carte p est indiquée ; sinon, une carte u est indiquée. Par exemple,
si
Ligne médiane
bleus par caisse
= nombre de caisses
Comme pour toutes les cartes de contrôle, une cause spéciale est probablement
présente s'il y a des points audelà de la limite de contrôle supérieure ou inférieure.
L'analyse des modèles de carte u entre les limites de contrôle est extrêmement compliquée
lorsque la taille de l'échantillon varie et n'est généralement pas effectuée.
Équations de limite de contrôle pour les cartes c Comme toutes les cartes de contrôle,
les cartes c se composent de trois lignes directrices : la ligne médiane, une limite de
contrôle inférieure et une limite de contrôle supérieure. La ligne médiane est le nombre
moyen d'occurrences par unité et les deux limites de contrôle sont fixées à plus et
moins trois écartstypes. Si le processus est sous contrôle statistique, alors
pratiquement toutes les occurrences de sousgroupes par unité doivent se situer entre
les limites de contrôle et elles doivent fluctuer de manière aléatoire autour de la ligne médiane.
LCLc = 3 c
UCL c 3 = + c
Les données du tableau 9.10 ont été obtenues en ouvrant des caisses sélectionnées au
hasard dans chaque expédition et en comptant le nombre d'ecchymoses. Il y a 250
pêches par caisse. La taille de notre unité sera considérée comme une caisse complète ;
c'estàdire que nous compterons les caisses plutôt que les pêches ellesmêmes.
Chaque sousgroupe se compose d'une caisse. Si la taille du sousgroupe variait, une
carte u serait utilisée.
En utilisant les données cidessus, la ligne médiane et les limites de contrôle sont trouvées
comme suit :
1006
c = somme des occurrences de sous = = 33 .53
groupes nombre de sousgroupes 30
LCLc = = 33 .53 3− 33 53 16
. = .158
3 c
Ligne médiane =
contusions nombre de caisses
CHAPITRE 2
La fonction qualité
Machine Translated by Google
1 27
2 32
3 24
4 31
5 42
6 38
7 33
8 35
9 35
dix 39
11 41
12 29
13 34
14 34
15 43
16 29
17 33
18 33
19 38
20 32
21 37
22 30
23 31
24 32
25 42
26 40
27 21
28 23
29 39
30 29
TOTAL 1006
Comme pour toutes les cartes de contrôle, une cause spéciale est probablement présente
s'il y a des points audelà de la limite de contrôle supérieure ou inférieure. L'analyse des
modèles de carte c entre les limites de contrôle est présentée plus loin dans ce chapitre.
Machine Translated by Google
52,5
UCL = 50.906
45,0
37,5
PCL = 33.533
Défauts
30,0
22,5
LCL = 16,161
15,0
1 4 7 dix 13 16 19 22 25 28
Figure 9.15 c exemple de graphique construit à l'aide du logiciel Green Belt XL (avec la
permission de www.qualityamerica.com avec permission).
La sélection de la carte de contrôle appropriée pour un ensemble de données particulier est une
question simple si elle est abordée correctement, comme illustré à la Fig. 9.16.
Pour utiliser l'arbre de décision, commencez par le nœud le plus à gauche et déterminez si les
données sont des mesures ou des comptages. S'il s'agit de mesures, sélectionnez la carte de contrôle
en fonction de la taille du sousgroupe. Si les données sont des comptes,
n
n
n np
n p
n c
n tu
puis déterminez si les comptages sont des occurrences ou des pièces. Une aide à cette détermination
consiste à examiner l'équation de la moyenne du processus. Si le numérateur et le dénominateur
impliquent les mêmes unités, une carte p ou np est indiquée. Si différentes unités de mesure sont
impliquées, une carte u ou c est indiquée. Par exemple, si la moyenne est en accidents par mois,
alors un graphique c ou u est indiqué parce que le numérateur est en termes d'accidents mais le
dénominateur est en termes de temps.
Les modèles anormaux sont la situation classique de cause spéciale (Fig. 9.17). Les monstres
résultent de causes qui ont un effet important mais qui se produisent rarement.
Lorsque vous enquêtez sur des valeurs anormales, consultez le diagramme de cause à effet pour les
éléments qui répondent à ces critères. La clé de l'identification des causes anormales est la rapidité
de la collecte et de l'enregistrement des données. Si vous avez des difficultés, essayez d'échantillonner
plus fréquemment.
La dérive est généralement observée dans les processus où la valeur de processus actuelle est
en partie déterminée par l'état de processus précédent. Par exemple, si le processus est un bain de
placage, le contenu du réservoir ne peut pas changer instantanément ;
Ajouter le produit
X XX
X
Processus
0 aptitude
au lieu de cela, il changera progressivement (Fig. 9.18). Un autre exemple courant est l'usure de
l'outil : la taille de l'outil est liée à sa taille précédente. Une fois la cause de la dérive déterminée,
les mesures appropriées peuvent être prises. Chaque fois que cela est économiquement faisable,
la dérive doit être éliminée ; par exemple, installez un distributeur automatique de produits
chimiques pour le bain de placage ou effectuez des ajustements de compensation automatiques
pour corriger l'usure de l'outil. Notez que la variabilité totale du processus augmente lorsque la
dérive est autorisée, ce qui augmente les coûts. Lorsque l'élimination de la dérive n'est pas
possible, la carte de contrôle peut être modifiée de deux manières :
1. Faites en sorte que la pente de la ligne médiane et les limites de contrôle correspondent
à la dérive naturelle du processus. La carte de contrôle détectera alors les écarts à la
dérive naturelle.
Des cycles se produisent souvent en raison de la nature du processus. Les cycles courants
comprennent l'heure du jour, le jour de la semaine, le mois de l'année, le trimestre de l'année, la
semaine du cycle comptable, etc. (Fig. 9.19). Les cycles sont provoqués par la modification des
entrées de processus ou des méthodes selon un calendrier régulier. L'existence de ce calendrier
et son effet sur le processus peuvent ou non être connus à l'avance. Une fois le cycle découvert,
des mesures peuvent être prises. L'action peut consister à ajuster la carte de contrôle en traçant
la mesure de contrôle par rapport à une base variable. Par exemple, si un cycle de jour de la
semaine existe pour les erreurs d'expédition en raison de la charge de travail, vous pouvez tracer
les erreurs d'expédition pour 100 commandes expédiées au lieu des erreurs d'expédition par
jour. Alternativement, il peut être intéressant de changer de système pour lisser le cycle. La
plupart des processus fonctionnent plus efficacement lorsque les entrées sont relativement
stables et lorsque les méthodes sont modifiées le moins possible.
Machine Translated by Google
X X
0 M
WFSMWFSMWFSMWFS
STT STT STT STT
La cause habituelle de cette situation est une résolution de jauge inadéquate. La solution
idéale est d'obtenir une jauge avec une plus grande résolution. Parfois, le problème survient parce
que les opérateurs, les inspecteurs ou les ordinateurs arrondissent les chiffres. La solution ici est
d'enregistrer des chiffres supplémentaires.
La raison pour laquelle le SPC est fait est d'accélérer le processus d'apprentissage et de
produire éventuellement une amélioration. Les cartes de contrôle servent d'enregistrements
historiques du processus d'apprentissage et peuvent être utilisées par d'autres pour améliorer
d'autres processus. Lorsqu'une amélioration est réalisée, le changement doit être écrit sur
l'ancienne carte de contrôle ; son effet apparaîtra comme un processus moins variable. Ces
tableaux sont également utiles pour communiquer les résultats aux dirigeants, fournisseurs,
clients et autres personnes intéressées par l'amélioration de la qualité (Fig. 9.22).
Des modèles apparemment aléatoires sur une carte de contrôle sont la preuve de causes de
variation inconnues, ce qui n'est pas la même chose qu'une variation sans cause . Il devrait y
avoir un effort continu pour réduire la variation de ces soidisant causes communes. Pour ce faire,
il faut que les causes inconnues de variation
J J J TT
MM M M MM M
T = Té
M = Marie
0
être indentifié. Une façon d'y parvenir est une évaluation rétrospective des cartes de contrôle.
Cela implique de faire un remueméninges et de préparer des diagrammes de cause à effet,
puis de relier les modèles de carte de contrôle aux causes répertoriées sur le diagramme. Par
exemple, si « opérateur » est une cause suspectée de variation, placez une étiquette sur les
points de la carte de contrôle produite par chaque opérateur (Fig. 9.23). Si les étiquettes
présentent un motif, il existe des preuves suggérant un problème. Mener une enquête sur les
raisons et mettre en place des expériences contrôlées (études prospectives) pour tester les
théories proposées. Si les expériences indiquent une véritable relation de cause à effet,
apportez les améliorations de processus appropriées. Gardez à l'esprit qu'une association
statistique n'est pas la même chose qu'une corrélation causale. L'association observée doit
être étayée par une solide expertise en la matière et des données expérimentales.
Un mélange existe lorsque les données de deux systèmes de cause différents sont tracées
sur une seule carte de contrôle (Fig. 9.24). Cela indique un échec dans la création
sousgroupes rationnels. Les différences sousjacentes doivent être identifiées et des mesures
correctives doivent être prises. La nature de l'action corrective déterminera comment la carte de
contrôle doit être modifiée.
Par exemple, si le mélange représente deux opérateurs différents qui peuvent être rendus
plus cohérents, une seule carte de contrôle peut être utilisée pour surveiller le nouveau processus
cohérent. Alternativement, si le mélange représente la différence entre le nombre de cas reçus
aux urgences le samedi soir et le nombre reçu pendant la semaine, des graphiques de contrôle
distincts doivent être utilisés pour surveiller la charge de patients pendant les deux périodes
différentes.
Exécuter
les tests Si le processus est stable, la distribution des moyennes des sousgroupes sera à peu
près normale. Dans cet esprit, nous pouvons également analyser les modèles sur les cartes de
contrôle pour voir s'ils pourraient être attribués à une cause particulière de variation. Pour ce
faire, nous divisons une distribution normale en zones, chaque zone étant large d'un écart type.
La figure 9.25 montre le pourcentage approximatif que nous nous attendons à trouver dans
chaque zone à partir d'un processus stable.
La zone C est la zone de la moyenne à la moyenne plus ou moins un sigma, la zone B est
de plus ou moins un sigma à plus ou moins deux sigma, et la zone A est de plus ou moins deux
sigma à plus ou moins trois sigma.
A C C A
2,14% B 13,59 % 34,13 % 34,13 % B 13,59 % 2,14%
UCL +3σ
UN
+2σ
B
+1σ
= C
X µ
C
–1σ
B
–2σ
UN
LCL –3σ
Figure 9.26 Lignes de zone de distribution normale sur une carte de contrôle.
Bien sûr, tout point audelà de trois sigma (c'estàdire en dehors de la limite de contrôle) est une
indication d'un processus hors de contrôle.
Étant donné que les limites de contrôle sont à plus et moins trois écartstypes, trouver les
lignes un et deux sigma sur une carte de contrôle est aussi simple que de diviser la distance entre
la moyenne générale et l'une ou l'autre des limites de contrôle en tiers, ce qui peut être fait à l'aide
d'une règle. . Cela divise chaque moitié de la carte de contrôle en trois zones. Les trois zones
sont étiquetées A, B et C comme indiqué sur la Fig. 9.26.
Sur la base des pourcentages attendus dans chaque zone, des tests de fonctionnement
sensibles peuvent être développés pour analyser les schémas de variation dans les différentes zones.
Rappelezvous que l'existence d'un modèle non aléatoire signifie qu'une cause particulière de
variation était (ou est) probablement présente. Les tests d'exécution des cartes de contrôle des
moyennes, np et c sont illustrés à la Fig. 9.27.
L'alternative offerte par la plupart des praticiens est une carte de tendance standard, qui
ressemble beaucoup à la carte de contrôle individuelle, mais utilise des limites de spécification à
la place des limites de contrôle calculées. (Les limites de spécification font référence aux
exigences du client ou de la direction, définies comme une limite supérieure, une limite inférieure
ou les deux. Les observations en dehors des spécifications sont appelées défauts.)
Prenons l'exemple d'un opérateur utilisant ce type de graphique pour surveiller une ligne de
production. Un échantillon est prélevé du processus et comparé à la spécification. Si l'échantillon
est proche de la spécification, l'opérateur peut décider d'ajuster le processus, généralement en le
déplaçant à la même distance le dernier
Machine Translated by Google
Figure 9.27 Tests pour les modèles hors contrôle sur les cartes de contrôle (Nelson, 1984).
Variation
résultant
origina
Varian USL
LSL
ajustements avec l'intention de déplacer la ligne médiane du processus moins 3 unités vers la
cible prévue de 10.
Cette situation est illustrée dans les deux premiers graphiques (à partir de la gauche) de la
Fig. 9.28. En ajustant le processus, l'opérateur a déplacé toute la distribution du processus
moins 3 unités. La distribution la plus à gauche (c'estàdire avant l'ajustement) était en fait
(dans ce cas) idéalement située entre les spécifications supérieure et inférieure. Deux
problèmes masquaient le fait que : (1) l'opérateur n'avait aucune idée de l'emplacement du
processus, car aucune carte de contrôle n'a été utilisée pour définir la distribution du processus,
et (2) la distribution du processus est trop large pour les spécifications, donc même si elle peut
ont été localisés de manière optimale avant l'ajustement, il y avait encore une forte probabilité
que le processus produise une sortie audelà de chacune des spécifications.
L'opérateur ne pourrait apprécier ces problèmes que si une carte de contrôle était utilisée
pour déterminer sa variation de cause commune. Lorsque des ajustements sont effectués en
l'absence d'une cause particulière, l'ajustement entraîne une variation supplémentaire, comme
indiqué sur la figure. La quantité minimale de variation se produit lorsque le processus n'est pas
ajusté. Étant donné que ce processus n'était pas capable de produire de manière fiable une
sortie conforme aux spécifications, une inspection à 100 % de sa sortie est requise. En fait,
chaque fois qu'un processus est hors de contrôle ou que son état de contrôle est inconnu, seul
un échantillonnage à 100 % peut être utilisé.
Lorsque la variation de cause commune est traitée comme une variation de cause spéciale
et que des ajustements sont apportés au processus, une altération du processus s'est produite
et la variation du processus a augmenté. Cela peut se produire dans n'importe quel type de
processus, y compris les processus de service/transactionnels.
Le meilleur moyen de diagnostiquer la falsification est de mener une étude de capacité du
procédé et d'utiliser une carte de contrôle pour fournir des lignes directrices pour ajuster le
procédé.
Machine Translated by Google
La meilleure analyse des effets de la falsification est peutêtre celle de Deming (1986).
Deming décrit quatre types courants de falsification en faisant l'analogie de viser un entonnoir
pour atteindre une cible souhaitée. Ces « règles de l'entonnoir » sont décrites par Deming (1986,
p. 328) :
4. "Placez l'entonnoir à chaque goutte juste audessus de l'endroit (zk ) où il s'est arrêté
pour la dernière fois. Pas de mémoire.
La règle n°1 est la meilleure règle pour les processus stables. En suivant cette règle, la
moyenne du processus restera stable et la variance sera minimisée. La règle #2 produit une sortie
stable mais avec deux fois la variance de la règle #1. La règle n°3 aboutit à un système qui «
explose » ; c'estàdire qu'un motif symétrique apparaîtra avec une variance qui augmente sans
limite. La règle n°4 crée un motif qui s'éloigne régulièrement de la cible, sans limite (voir Fig.
9.29).
A première vue, on peut s'interroger sur la pertinence de règles aussi abstraites en
apparence. Cependant, après un examen plus attentif, on trouve de nombreuses situations
pratiques où ces règles s'appliquent.
La règle n° 1 est la situation idéale et elle peut être approchée en utilisant des cartes de
contrôle pour guider la prise de décision. Si des ajustements de processus sont effectués
uniquement lorsque des causes spéciales sont indiquées et identifiées, un schéma similaire à
celui produit par la règle n° 1 en résultera.
La règle n ° 2 a un attrait intuitif pour de nombreuses personnes. Il est couramment rencontré
dans des activités telles que l'étalonnage de jauge (vérifier la norme une fois et ajuster la jauge
en conséquence) ou dans certains équipements automatisés (à l'aide d'une jauge automatique,
vérifier la taille de la dernière caractéristique produite et faire un
25
20
15
dix
0
0 50 100 150 200
–5
L'analyse de la capabilité du processus peut être effectuée avec des données d'attribut
ou des données continues si, et seulement si, le processus est sous contrôle statistique, et
ce depuis une période de temps raisonnable. L'application de méthodes de capacité de
processus à des processus qui ne sont pas sous contrôle statistique entraîne des estimations
peu fiables de la capacité de processus et ne devrait jamais être effectuée.
Cependant, parce qu'une entreprise ne dispose que d'une base de ressources limitée et
ne peut pas résoudre tous les problèmes simultanément, elle doit établir des priorités
pour ses efforts. Les outils pour cela incluent l'analyse de Pareto et les diagrammes en
arête de poisson.
2. Définissez le processus. Il est trop facile de tomber dans le piège de résoudre le mauvais
problème. Une fois la zone candidate sélectionnée à l'étape 1, définir le périmètre de
l'étude. Un processus est une combinaison unique de machines, d'outils, de méthodes
et de personnel engagés dans la création de valeur en fournissant un produit ou un
service. Chaque élément du processus doit être identifié à ce stade. Ce n'est pas un
exercice trivial. L'apport de nombreuses personnes peut être nécessaire. Il est probable
qu'il y ait un certain nombre d'opinions contradictoires sur ce que le processus implique
réellement.
3. Obtenir des ressources pour l'étude. Les études de capabilité des processus perturbent
les opérations normales et nécessitent des dépenses importantes en ressources
matérielles et humaines. S'agissant d'un projet d'importance majeure, il doit être géré
comme tel. Toutes les techniques usuelles de gestion de projet doivent être mises en
œuvre. Cela inclut la planification, l'ordonnancement et la création de rapports sur l'état
de la gestion.
5. Préparez un plan de contrôle. Le but du plan de contrôle est double : (1) isoler et contrôler
autant de variables importantes que possible, et (2) fournir un mécanisme de suivi des
variables qui ne peuvent pas être complètement contrôlées. L'objet de l'analyse de
capabilité est de déterminer ce que le processus peut faire s'il est exploité de la manière
pour laquelle il est conçu. Cela signifie que des sources de variation potentielle aussi
évidentes que les opérateurs et les vendeurs seront contrôlées pendant la réalisation de
l'étude. En d'autres termes, un seul opérateur bien formé sera utilisé et le matériel
proviendra d'un seul fournisseur.
6. Sélectionnez une méthode pour l'analyse. La méthode SPC dépendra des décisions
prises jusqu'à présent. Si la mesure de performance est un attribut, l'un des tableaux
d'attributs sera utilisé. variables
Machine Translated by Google
des graphiques seront utilisés pour les mesures de performance des processus
évaluées sur une échelle continue. Le niveau de compétence du personnel impliqué,
le besoin de sensibilité et les autres ressources nécessaires pour collecter, enregistrer
et analyser les données seront également pris en compte.
7. Rassemblez et analysez les données. Utilisez l'une des cartes de contrôle décrites
dans ce chapitre, plus le bon sens. Il est généralement conseillé d'avoir au moins deux
personnes qui passent en revue l'analyse des données pour détecter les erreurs
involontaires lors de la transcription des données ou de l'exécution de l'analyse.
8. Recherchez et supprimez les causes spéciales. Une cause spéciale de variation peut
être évidente, ou cela peut prendre des mois d'enquête pour la trouver. L'effet de la
cause spéciale peut être bon ou mauvais. La suppression d'une cause spéciale qui a
un effet néfaste implique généralement l'élimination de la cause ellemême. Par
exemple, si des opérateurs mal formés sont à l'origine de la variabilité, la cause
particulière est le système de formation (et non l'opérateur), et elle est éliminée en
développant un système de formation amélioré ou un processus nécessitant moins de
formation. Cependant, la suppression d'une cause spéciale bénéfique peut en réalité
impliquer l'incorporation de la cause spéciale dans la procédure d'exploitation normale.
Par exemple, s'il est découvert que des matériaux avec une chimie particulière
produisent un meilleur produit, la cause spéciale est le matériau nouvellement
découvert et il peut être fait une cause commune simplement en changeant la
spécification pour s'assurer que la nouvelle chimie est toujours utilisée.
10. Établir un plan d'amélioration continue des processus. Une fois qu'un état de processus
stable a été atteint, des mesures doivent être prises pour le maintenir et l'améliorer. La
CPS n'est qu'un moyen parmi d'autres d'y parvenir. Bien plus important que l'approche
particulière adoptée est un environnement d'entreprise qui fait de l'amélioration
continue une partie normale de la routine quotidienne de chacun.
Si la capacité du processus ne répond pas aux exigences de gestion, prenez des mesures
immédiates pour modifier le processus pour le mieux. La « résolution de problèmes » (par
exemple, l'étude de chaque élément défectueux) n'aidera pas et peut entraîner une falsification.
Qu'il réponde ou non aux exigences, soyez toujours à l'affût des améliorations possibles des
processus. Les cartes de contrôle permettront de vérifier l'amélioration.
été atteint, la capabilité est le niveau créé par les causes courantes de variation du processus.
Les formules d'estimation de l'écarttype de procédé
sont :
R
Méthode du graphique de plage : σX =
d2
S
=
Méthode graphique Sigma : σX
c
4
tolérance d'ingénierie
CP =
6σˆ
6σˆ
CR = × 100
tolérance d'ingénierie
tolérance d'ingénierie
CM =
8σˆ
Z MIN = Le minimum { ZZ
LU, }
Z MIN
C =
3
PAQUET
C
= p
C
pm 2
−
(µ T)
1+ ˆ
2σ _
CR L' indice CR est algébriquement équivalent à l' indice CP . L'indice fait simplement une
comparaison directe du processus avec les exigences d'ingénierie. En supposant que la
distribution du processus est normale et que la moyenne du processus est exactement
centrée entre les exigences techniques, un indice CR de 100 % donnerait un "processus
capable". Cependant, pour laisser un peu de place à la dérive du processus, la valeur
maximale généralement acceptée pour le CR est de 75 %. En général, plus le CR est petit,
mieux c'est. L' indice CR souffre des mêmes défauts que l' indice CP .
CM L' indice CM est généralement utilisé pour évaluer les études de capabilité des machines,
plutôt que les études de capabilité des processus à part entière. Étant donné que la variation
augmentera lorsque des sources normales de variation de processus sont ajoutées (par
exemple, outillage, montages, matériaux, etc.), CM utilise une répartition quatre sigma plutôt
qu'une répartition trois sigma.
ZU L' indice ZU mesure l'emplacement du processus (tendance centrale) par rapport à son
écart type et à l'exigence supérieure. Si la distribution est normale, la valeur de ZU peut être
utilisée pour déterminer le pourcentage audessus de l'exigence supérieure en utilisant le
tableau de l'annexe 2. En général, plus ZU est grand, mieux c'est. Une valeur d'au moins +3
est nécessaire pour
Machine Translated by Google
s'assurer que 0,1 % ou moins de produits défectueux seront produits. Une valeur de +4 est
généralement souhaitée pour laisser une certaine marge à la dérive du processus.
ZL L' indice ZL mesure l'emplacement du processus par rapport à son écart type et à
l'exigence inférieure. Si la distribution est normale, la valeur de ZL peut être utilisée
pour déterminer le pourcentage audessus de l'exigence supérieure en utilisant le
tableau de l'annexe 2. En général, plus ZL est grand, mieux c'est. Une valeur d'au
moins +3 est requise pour s'assurer que 0,1 % ou moins de produits défectueux
seront produits. Une valeur de +4 est généralement souhaitée pour laisser une
certaine marge à la dérive du processus.
ZMIN La valeur de ZMIN est simplement la plus petite des valeurs ZL ou ZU .
Il est utilisé dans le calcul du CPK.
CPK La valeur de CPK est simplement ZMIN divisé par 3. Étant donné que la plus
petite valeur représente la spécification la plus proche, la valeur de CPK vous indique
si le processus est vraiment capable de répondre aux exigences. Un CPK d'au moins
+1 est requis et +1,33 est préférable. Notez que CPK est étroitement lié à CP et que
la différence entre CPK et CP représente le gain potentiel à tirer du centrage du
processus.
CPM Un CPM d'au moins 1 est requis et 1,33 est préférable. Le CPM est étroitement
lié au CP. La différence représente le gain potentiel à obtenir en rapprochant la
moyenne du procédé de la cible. Contrairement à CPK, la cible n'a pas besoin d'être
au centre de la plage de spécifications.
Par exemple, supposons qu'un processus est sous contrôle statistique sur la base d'un
graphique X et R avec des sousgroupes de 5. La moyenne générale (ou la ligne centrale
du graphique X ) est calculée comme 0,99832, et la plage moyenne (ou la ligne centrale
du graphique R graphique) est calculé comme 0,02205. D'après le tableau des valeurs de
d2 (annexe 1), nous trouvons que d2 est de 2,326 pour des sousgroupes de 5. Ainsi, en
utilisant l'équation cidessus pour calculer l'écarttype du processus à l'aide de la méthode
du diagramme de plage :
ˆ 0.
02205σ = = 0 .00948
2 .326
−
spécification supérieure X = 1 .020 0− 99832
.
Z tu = ˆ = 2 .3
σ 0 .00948
− − 0 .980
X spécification inférieure = 0 .99832
ZL = ˆ = 1 .9
σ 0 .00948
1 .020 0− 9800
.
= tolérance d'ingénierie
ˆ = = 0 .703
CP
6σ .
6 0 00948 ×
Machine Translated by Google
6 0,009
100 × 48 ×
= = 142 2 . %
CR = ×σˆ 6 100
tolérance d'ingénierie 0 .04
C 0 .703
p
C PM = = = 0 .692
2 2
−
( XT
) 1+
( 0 .99832 1 000
.
)
1+ ˆ2 2
σ 0,00948
CHAPITRE 10
Audits Qualité
Machine Translated by Google
Machine Translated by Google
Les activités d'examen doivent répondre à plusieurs critères pour être considérées comme des audits.
Les visites informelles, bien qu'utiles, ne sont pas considérées comme une évaluation
systématique et ne répondent donc pas aux critères d'un audit. Les examens effectués
par les employés qui relèvent du chef de la fonction examinée sont également
importants, mais ne sont pas des audits. La référence aux « politiques, procédures ou
exigences » implique l'existence d'une documentation écrite.
Les systèmes de qualité non documentés ne constituent pas un sujet
approprié pour les audits de qualité. La mise en œuvre est auditée en comparant
les politiques, procédures ou exigences prévues avec les pratiques observées,
en veillant à savoir si (1) cellesci sont correctement mises en œuvre et (2) si
oui, atteignentelles les objectifs énoncés ?
Il n'est pas surprenant de constater qu'une activité aussi importante et aussi
courante que les audits qualité est couverte par un grand nombre de normes
différentes. Il est dans le meilleur intérêt de toutes les parties que l'activité de
vérification soit normalisée dans la mesure du possible. L'un des principes
fondamentaux d'un audit efficace est « pas de surprises », quelque chose de plus
facile à réaliser si toutes les parties concernées utilisent le même règlement. Les
normes d'audit sont, en général, des lignes directrices adoptées volontairement par
l'auditeur et l'audité. Souvent, les parties rendent la conformité obligatoire en spécifiant la norme d'audit
211
Machine Translated by Google
Des normes d'audit existent pour couvrir pratiquement tous les aspects de l'audit.
Le lecteur est invité à consulter ces normes, ou les résumés de Willborn, pour éviter de
réinventer la roue.
Audits de produits
Les audits de produits sont généralement menés du point de vue du client.
ISO 9000:2000 divise les produits en quatre catégories génériques : matériel, logiciel,
matériaux transformés et services.
Les exigences du système qualité sont essentiellement les mêmes pour toutes les
catégories de produits. ISO 9000 définit quatre facettes de la qualité des produits : la
qualité due à la définition du produit pour répondre aux exigences du marché, la qualité
due à la conception, la qualité due à la conformité à la conception et la qualité due au
support produit. Traditionnellement, les audits de la qualité des produits étaient menés
principalement pour déterminer la conformité avec la conception. Cependant, la qualité moderne
Machine Translated by Google
les normes d'audit (par exemple, la famille ISO 9000) sont conçues pour déterminer les quatre
facettes de la qualité.
L'un des objectifs de l'audit de produit est d'estimer la qualité livrée aux clients ; ainsi, les
audits de produits ont généralement lieu une fois les inspections internes terminées.
Les audits de produits diffèrent de l'inspection des manières suivantes : (1) les audits ont
une portée plus large que les inspections, (2) les audits fournissent plus de profondeur que les
inspections, (3) les audits fournissent des informations utiles pour l'amélioration de la qualité
des produits, et (4) les audits offrent une autre niveau d'assurance audelà de l'inspection de
routine. L'inspection se concentre normalement sur un petit nombre de caractéristiques
importantes du produit. Les échantillons d'inspection sont sélectionnés au hasard dans des
tailles suffisamment grandes pour produire des inférences statistiquement valides concernant la qualité du lot.
Les audits, quant à eux, portent sur la qualité produite par le système. Ainsi, l'unité de produit
est considérée comme représentant le résultat commun du système qui l'a produit. Les
échantillons d'audit semblent parfois assez petits, mais ils servent à montrer un instantané du
système.
Les échantillons d'audit sont examinés plus en profondeur que les échantillons de
produits ; c'estàdire que plus d'informations sont recueillies par unité de produit. Les résultats
de l'échantillon sont examinés du point de vue des systèmes. L'examen va audelà de la simple
conformité aux exigences. Des écarts mineurs sont notés, même s'ils ne sont pas suffisamment
graves pour justifier un rejet. Une pratique courante consiste à utiliser un système de
pondération pour attribuer des « démérites » à chaque unité de produit.
L'esthétique peut également être évaluée par l'auditeur (par exemple, défauts de peinture,
rayures, etc.). Le tableau 10.1 présente un exemple de vérification par un éditeur d'un
échantillon de 1 000 livres d'un titre donné.
Ces scores d'audit sont présentés sur des histogrammes et des cartes de contrôle pour
déterminer leur distribution et identifier les tendances. Les résultats de l'audit des produits sont
comparés aux exigences marketing (c'estàdire aux exigences des clients) ainsi qu'aux
exigences techniques.
Les audits de produits sont souvent effectués sur le marché luimême. En obtenant le
produit comme le ferait un client, l'auditeur peut examiner l'impact du transport, de l'emballage,
de la manutention, du stockage, etc. Ces audits permettent également de comparer l'état du
produit avec celui proposé par les concurrents.
Audit de processus
Les audits de processus se concentrent sur des activités ou des unités organisationnelles
spécifiques. Les exemples incluent l'ingénierie, le marketing, l'étalonnage, l'inspection,
le contrôle des matériaux divergents, les actions correctives, etc.
Les audits de processus comparent les opérations réelles avec les exigences
documentées des opérations. Les audits de processus doivent commencer par une
compréhension de la façon dont le processus est censé fonctionner. Un organigramme
de processus est un outil utile pour aider à atteindre cette compréhension.
On dit qu'un bon reporter détermine la réponse à six questions : qui ? quoi ? quand?
où? pourquoi ? et comment? Cette approche fonctionne également pour l'auditeur de
processus. Pour chaque tâche de processus importante, demandez :
Audits de systèmes
Les systèmes sont des arrangements de processus : un groupe d'éléments en
interaction, interreliés ou interdépendants formant un tout complexe. Les audits de
systèmes diffèrent des audits de processus principalement par leur portée. Alors que
les audits de processus se concentrent sur un aspect isolé du système, les audits de
systèmes se concentrent sur les relations entre les différents processus du système.
Dans le cas des audits qualité, le souci porte sur le système qualité. Le système qualité
est l'ensemble de toutes les activités conçues pour garantir que toutes les exigences
qualité importantes sont déterminées, documentées et respectées.
Le niveau d'exigences des systèmes qualité varie selon le type d'organisme audité
et, éventuellement, selon la taille de l'organisme. Les organisations qui produisent,
distribuent et supportent un produit ont des besoins plus importants que les organisations
qui vendent un service. Les modifications apportées à la série ISO 9000 en 2000 ont
défini les exigences en termes plus larges qui s'appliquaient plus clairement à la plupart
ou à toutes les organisations.
Machine Translated by Google
Audits internes
Compte tenu des avantages qui découlent de l'audit de qualité, il n'est pas surprenant
que la plupart des audits de qualité soient des activités internes menées par des
organisations soucieuses de s'améliorer. Bien entendu, les mêmes principes
s'appliquent aux audits internes qu'aux audits externes (par exemple, l'indépendance des auditeurs).
Ishikawa (1985) décrit quatre types d'audits internes :
Audits bipartites
La plupart des audits sont menés entre clients et fournisseurs. Dans ce cas, les
fournisseurs fournissent généralement une personne de contact pour travailler avec
l'auditeur du client. En outre, les fournisseurs autorisent généralement tout le personnel
à fournir toutes les informations dont l'auditeur a besoin, dans des limites raisonnables,
bien sûr. Les audits bipartites sont généralement limités aux parties du système qualité
qui concernent directement les parties concernées. Le client n'évaluera que les
processus, produits et éléments du système qui ont un impact direct ou indirect sur
ses achats.
Vérifications
sur place L'accent de la discussion cidessus a été mis sur la visite sur place.
Cependant, une partie importante de l'activité d'audit se déroule entre l'auditeur et
l'audité, chacun travaillant dans son organisation respective. Une grande partie de
l'activité d'audit implique l'examen de la documentation.
La documentation révèle si oui ou non un système de qualité a été développé. Il décrit
le système tel que le fournisseur le souhaite. À partir d'un examen de la documentation,
l'auditeur peut déterminer si le système qualité, tel qu'il a été conçu, répond aux
exigences de l'auditeur. Dans le cas contraire, un rapport préliminaire peut informer
l'audité de toute lacune. Des actions correctives peuvent être prises soit pour modifier
la documentation, soit pour développer de nouveaux éléments du système. Une fois
que la documentation est sous une forme acceptable pour l'auditeur, une visite sur site
peut être programmée pour déterminer si le système a été correctement mis en œuvre.
Correctement réalisés, les audits sur place peuvent faire économiser à la fois à
l'auditeur et à l'audité des dépenses et des tracas importants.
d'un problème et pour s'assurer que des mesures correctives efficaces sont prises pour
prévenir de futures occurrences du problème. • Observation en cours de processus.
Audits sur site effectués pour s'assurer que les processus sont exécutés
conformément aux exigences établies. Ces audits sont souvent effectués lorsqu'il est
difficile ou impossible de déterminer si les exigences ont été satisfaites ou non en
inspectant ou en testant le produit fini.
Parfois, des audits périodiques sont programmés automatiquement. Par exemple, pour
maintenir la certification aux normes de la série ISO 9000, une organisation est périodiquement
réévaluée.
Certaines activités d'audit, comme celles des centrales nucléaires, nécessitent une
certification particulière. Les auditeurs principaux ont besoin d'une formation supplémentaire
en compétences de leadership et en gestion. Des tiers peuvent également fournir une
certification des auditeurs, par exemple par l'ASQ.
Machine Translated by Google
•Effectuer un audit sur place du manuel qualité et d'autres documents pour vérifier
l'étendue de l'audit et fournir une estimation de la durée de l'audit.
Les résultats d'audit sont communiqués pendant que l'audit est en cours et à la fin de
l'audit. Le principe est simple : l'auditeur doit tenir l'audité informé à tout moment. C'est un
corollaire du principe « pas de surprises ». De plus, cela aide l'auditeur à éviter de faire
des erreurs en interprétant mal les observations ; en général, l'audité est mieux informé
des opérations internes que l'auditeur.
Les audités doivent être informés avant, pendant et après l'audit. Avant l'audit, l'audité
est informé de la portée, de l'objectif et du calendrier de l'audit et est autorisé à jouer un
rôle actif dans la planification de l'audit. À leur arrivée, l'auditeur et l'audité doivent se
rencontrer pour examiner les plans et les calendriers de l'audit. Des briefings verbaux
quotidiens doivent être faits, présentant les résultats provisoires et les conclusions
provisoires de l'auditeur. Lors de ces réunions, l'entité auditée est encouragée à présenter
des informations supplémentaires et des éclaircissements à l'auditeur.
Des procèsverbaux écrits de ces réunions doivent être conservés et publiés.
À la fin de l'audit, un briefing de sortie est recommandé.
Par courtoisie, un rapport intermédiaire devrait être publié dès que possible après
l'achèvement de l'audit. Le rapport intermédiaire doit indiquer les principales constatations
de l'auditeur et les recommandations préliminaires de l'auditeur.
Les rapports d'audit formels sont le produit ultime de l'effort d'audit. Officiel
les rapports d'audit comprennent généralement les éléments suivants :
• Objectifs de l'audit •
Identification de l'auditeur, de l'audité et des tiers • Dates
d'audit
• Normes d'audit utilisées
• Membres de l'équipe d'audit
Le rapport d'audit est le « document officiel » de l'audit. Les rapports d'audit doivent
être préparés en temps opportun. Idéalement, la date limite d'émission du rapport devrait
être déterminée dans le plan d'audit préparé au préalable.
Les rapports d'audit doivent décrire l'objectif et la portée de l'audit ; l'entité auditée ; la
composition de l'équipe d'audit, y compris l'affiliation et les conflits d'intérêts potentiels ; les
observations de l'audit ; et recommandations. Des preuves détaillées à l'appui des
recommandations doivent être incluses dans le rapport. Les rapports d'audit peuvent inclure
des recommandations d'amélioration. Ils peuvent également inclure la reconnaissance des
actions correctives déjà accomplies. Le procèsverbal peut s'appuyer sur les procès
verbaux des réunions tenues avec l'audité. Il doit également noter les points de vue de
l'entité auditée sur les constatations et les conclusions rapportées précédemment.
Les opinions des auditeurs sont autorisées, mais elles doivent être clairement identifiées
comme des opinions et des preuves à l'appui doivent être fournies.
Quiconque a été auditeur depuis un certain temps sait qu'il est parfois nécessaire de
signaler des constatations désagréables. Ces résultats sont souvent les plus avantageux
pour l'audité, car ils fournissent des informations que le personnel interne peut ne pas
vouloir présenter. Lorsqu'elles sont présentées correctement par un auditeur externe, les
«mauvaises nouvelles» peuvent servir de catalyseur à une amélioration nécessaire depuis
longtemps. Cependant, il est conseillé à l'auditeur de s'attendre à des réactions telles que
le déni, la colère et la frustration lors de la réception initiale des conclusions. En général,
les résultats désagréables doivent être soutenus plus largement. Veillez à formuler les
conclusions de manière à ce que le moins de déclencheurs émotionnels possibles soient
impliqués. Plus tôt l'audité et l'auditeur peuvent commencer à corriger les problèmes,
mieux c'est pour les deux parties.
Si un rapport est préparé par plus d'une personne, une personne sera désignée comme
vérificateur principal. L'auditeur principal sera responsable de l'assemblage et de l'examen
du rapport complété. Si l'audit a été réalisé par une seconde partie, la distribution du
rapport sera limitée au personnel désigné au sein des organisations de l'auditeur et de
l'audité, généralement la direction générale. Si un audit par un tiers a été réalisé, le rapport
d'audit sera également envoyé au client, qui à son tour est responsable d'informer la
direction générale de l'audité. Dans certains cas (par exemple, audits gouvernementaux,
audits financiers), les résultats sont également mis à la disposition du public. Cependant,
sauf indication contraire, les rapports d'audit sont généralement considérés comme des
informations privées et exclusives qui ne peuvent être divulguées sans l'autorisation écrite
expresse de l'entité auditée.
Dans la plupart des cas, l'auditeur n'est pas capable d'identifier la cause première d'un
problème. L'audité doit effectuer l'analyse nécessaire et spécifier les mesures prises pour
traiter la ou les causes du problème. À ce stade, l'auditeur peut parfois déterminer que la
cause profonde n'a pas été identifiée et peut aider l'audité à poursuivre le problème à un
niveau plus profond. À d'autres moments, il n'y a pas d'autre choix que de valider l'action
corrective par des audits, des tests ou des inspections supplémentaires. La preuve finale de
l'efficacité de toute action corrective doit être dans l'obtention du résultat souhaité.
Instructions de travail
Les instructions de travail doivent établir des moyens quantitatifs ou qualitatifs permettant de
déterminer que chaque opération a été effectuée de manière satisfaisante. Ces critères
doivent également être adaptés à une utilisation avec des inspections ou des tests connexes,
car les instructions de travail sont destinées au personnel d'exploitation, aux superviseurs,
aux inspecteurs, aux gestionnaires et même aux clients. Le respect des instructions fait
l'objet d'un examen et d'un audit.
Machine Translated by Google
Les instructions de travail comprennent les procédures documentées qui définissent comment
la production, l'installation ou l'entretien se dérouleront. Ces instructions décrivent les conditions
environnementales de fonctionnement ainsi que les activités nécessaires pour s'assurer que le
produit fini répond à toutes les exigences du client. Les instructions de travail comprennent également
des "antisèches", des "notes de berceau" et d'autres informations que les gens conservent pour leur
rappeler la façon dont "c'est vraiment fait". ISO 9000 fait de ces notes informelles une partie de la
documentation officielle du processus.
Considérez, par exemple, votre trajet quotidien pour vous rendre au travail. Une documentation
simple peut répertorier les rues que vous empruntez dans des conditions normales. Cependant, un
jour, vous trouvez un embouteillage et prenez un itinéraire alternatif. Devriezvous écrire cela ? Eh
bien, si l'embouteillage est causé par un projet de construction à long terme, peutêtre. Mais si c'est
dû à une rare rupture de conduite d'eau, ce n'est probablement pas nécessaire.
Le général George Patton a déclaré : « Ne dites pas aux gens comment faire les choses. Dites
leur quoi faire et laissezles vous surprendre avec leurs résultats.
Autoriser la flexibilité dans les instructions de travail, lorsque les travailleurs sont correctement formés
à leur objectif interfonctionnel de satisfaire les clients, peut donner de l'autonomie et conduire à un
service client de qualité supérieure. Dans ce contexte, les instructions de travail peuvent fournir les
raisons de satisfaire des objectifs particuliers de la fonction (le pourquoi du quoi), plutôt que le
comment spécifique, ce qui peut trop contraindre la discrétion.
À mesure que la technologie s'améliore, des bases de données peuvent être développées pour
filtrer rapidement et efficacement les informations pertinentes à la tâche à accomplir. Cela
augmentera efficacement la quantité de données pouvant être mises à la disposition de l'opérateur
du procédé. Jusquelà, la documentation doit être contenue dans les limites cognitives humaines. Le
principe directeur devrait être la taille minimale sous réserve d'être raisonnablement complet et
accessible à ceux qui l'utiliseront.
•Critères de fabrication
•Procédures de maintenance
•Méthodes de vérification (qualification des processus)
Les instructions de travail doivent être rédigées en termes clairs et simples, en utilisant
le langage le plus facile à comprendre pour la personne effectuant le travail. Les personnes
effectuant le travail doivent être intimement impliquées dans la préparation des instructions
de travail. Des images, des diagrammes, des graphiques et des illustrations doivent être
utilisés pour rendre la documentation facile à comprendre et à appliquer. Si les instructions
sont volumineuses, elles doivent inclure des aides telles que des index, des tables des
matières, des tables de figures, des onglets, etc. pour aider à localiser les informations
pertinentes. Bien sûr, pour s'assurer qu'elles sont à jour, la documentation doit être croisée
avec les dessins d'ingénierie, les bons de commande ou d'autres documents qu'ils mettent
en œuvre. Les instructions de travail doivent faire partie du système global de contrôle des
documents d'une entreprise.
Matériaux achetés
L'identification correcte des matériaux achetés commence, bien entendu, par le
fournisseur. Un élément clé du système de qualité du fournisseur doit inclure
l'identification des matériaux et leur statut discutés cidessous. Une fois reçus, l'état de
qualité des matériaux achetés doit être identifié conformément aux procédures
documentées. Les procédures doivent couvrir la façon dont le matériel acheté sera
identifié (par exemple, avec des étiquettes de statut), où les matériaux doivent être
stockés jusqu'à ce que la conformité aux exigences ait été établie, comment le matériel
non conforme sera identifié et stocké, et comment traiter les matériaux achetés non
conformes.
Produits finis
Le plan qualité devrait inclure des procédures qui documentent les tests ou inspections
requis avant la libération du produit pour livraison au client. Les procédures doivent
spécifier comment le statut d'inspection et d'essai des produits finis sera indiqué, où
les marchandises seront stockées en attendant l'expédition, et les méthodes
appropriées d'emballage, de manutention et de chargement des marchandises pour la
livraison finale.
Contrôle de la
configuration Le contrôle de la configuration est l'évaluation, la coordination,
l'approbation ou la désapprobation systématiques et la mise en œuvre de tous les
changements approuvés dans la configuration d'un élément après l'établissement
formel de son identification de configuration.
Machine Translated by Google
Déviations et renonciations
Alors qu'une modification technique implique une modification permanente de la conception
technique, une déviation est un écart temporaire par rapport à une exigence établie. Les
demandes de dérogation doivent être formellement évaluées et approuvées uniquement
lorsqu'elles entraînent des avantages significatifs. Les déviations répétées doivent faire l'objet
d'une enquête; si les exigences sousjacentes sont trop strictes, elles doivent être modifiées.
Machine Translated by Google
CHAPITRE 11
Gestion de la chaîne logistique
Machine Translated by Google
Machine Translated by Google
• Ne soyez pas trop légaliste. S'il est vrai que presque tous les accords acheteur
vendeur impliquent un contrat, il est également vrai que des conditions
imprévues exigent parfois que des mesures spéciales soient prises. Si
l'acheteur et le vendeur se respectent, ces situations ne poseront aucun
problème réel. •
Maintenir des canaux de communication ouverts. Cela implique à la fois des
canaux formels et informels. La communication formelle comprend des
éléments tels que l'examen conjoint des contrats et des exigences des bons
de commande par les équipes du vendeur et de l'acheteur, les visites et les
enquêtes sur site du vendeur et de l'acheteur, les procédures de demande
d'action corrective et de suivi, les exigences de tenue de registres, etc. Les
communications informelles impliquent un contact direct entre les individus de
chaque entreprise sur une base continue et routinière. Des communications
informelles pour clarifier des détails importants, poser des questions, recueillir
des informations pour aider à la prise
de décision, etc., éviteront de nombreux problèmes. • L'acheteur doit fournir au vendeur des descri
Cela comprend les dessins, les normes de fabrication, les instructions
de traitement spéciales ou toute autre information dont le vendeur a
besoin pour fournir un produit de qualité acceptable. L'acheteur doit
s'assurer que le vendeur comprend les exigences.
229
Machine Translated by Google
vice versa. Cette assistance peut consister en des visites sur site par les équipes de
l'acheteur ou du vendeur, une assistance téléphonique ou un transfert de documents.
Bien sûr, les deux parties sont tenues de protéger les secrets commerciaux et les
informations exclusives qu'elles obtiennent l'une de l'autre. • Le vendeur doit
• L'acheteur doit informer le vendeur de tout changement dans les exigences en temps
opportun. • Le
vendeur doit être récompensé pour ses performances exceptionnelles. Ces récompenses
peuvent aller de plaques à des niveaux d'activité accrus.
Les principes de base du comportement éthique ont été très bien résumés dans le Code
d'éthique pour les membres de l'American Society for Quality, qui est disponible sur leur site
Web.
Départements participants
Produit Qualité
Activité Conception Achat Contrôle
Tableau 11.1 Matrice de responsabilité pour les relations avec les fournisseurs
Cette approche a été remplacée par des audits tiers tels que ISO 9000. L'enquête sur la qualité du fournisseur
implique généralement une visite chez le fournisseur par une équipe de l'acheteur avant l'attribution d'un contrat,
c'est pourquoi on l'appelle parfois une «pré sondage sur les récompenses. L'équipe est généralement
composée de représentants des services d'ingénierie de conception, de contrôle qualité, de production et
d'achat de l'acheteur. Les éléments de contrôle de la qualité de l'enquête comprennent généralement, au
minimum :
L'évaluation utilise généralement une liste de contrôle avec un système de cotation numérique. Un
exemple simplifié d'une liste de contrôle d'évaluation des fournisseurs est illustré à la Fig. 11.1. Lorsqu'elle est
effectuée dans les installations du fournisseur, on parle d'enquête physique.
Machine Translated by Google
La liste de contrôle cidessus est une version simplifiée de celles utilisées dans la pratique,
qui peut consommer 15 pages ou plus. Il faut faire preuve de prudence dans la construction de
listes de contrôle trop lourdes et difficiles à utiliser. Si vous n'êtes pas lié par certaines exigences
gouvernementales ou contractuelles, il est recommandé de préparer une brève liste de contrôle
similaire à celle cidessus et de compléter la liste de contrôle par un rapport qui documente vos
observations personnelles.
Correctement utilisée, la liste de contrôle peut vous aider à vous guider sans vous lier les mains.
Bien qu'une liste de contrôle soit une aide utile, elle ne peut jamais se substituer aux
connaissances d'un évaluateur compétent et expérimenté. Les scores numériques doivent être
complétés par les observations et les interprétations de l'évaluateur.
La contribution du personnel du fournisseur doit également être incluse. En cas de désaccord
entre l'évaluateur et le fournisseur, la position des deux parties doit être clairement décrite.
Malgré leur énorme popularité, les sondages physiques auprès des fournisseurs ne sont
qu'un moyen parmi d'autres d'évaluer la performance potentielle d'un fournisseur, et des études
suggèrent qu'ils sont limités dans leur utilité. Une de ces études par Brainard (1966) a montré
que 74 des 151 enquêtes auprès des fournisseurs aboutissaient à des prédictions incorrectes ;
c'estàdire qu'un bon fournisseur était prédit comme mauvais ou vice versa ; un coin flip aurait
été un aussi bon prédicteur, et beaucoup moins cher !
Les enquêtes documentaires (abordées plus loin dans ce chapitre) peuvent constituer une
alternative satisfaisante. La performance réelle du fournisseur est peutêtre plus importante
que les sondages. Les fournisseurs doivent soumettre des « échantillons de corrélation » avec
Machine Translated by Google
les premières expéditions, qui doivent être numérotées et accompagnées des résultats de
l'inspection de la qualité et des résultats des tests du vendeur. Vérifiez que le fournisseur a
correctement vérifié chaque caractéristique importante et que vos résultats concordent ou «
correspondent » aux siens. Enfin, conservez un historique des performances de qualité. Le
meilleur prédicteur de bonnes performances futures semble être un record de bonnes
performances dans le passé. Si vous êtes abonné au GIDEP, le Government Industry Data
Exchange Program, vous avez accès à une multitude de données sur de nombreux
fournisseurs. (Les abonnés GIDEP doivent également contribuer à la banque de données.)
La base de données Coordinated Aerospace Supplier Evaluation (CASE) pour l'industrie
aéronautique est une autre ressource utile. Si elles sont pertinentes pour votre application,
ces compilations de l'expérience et des audits d'un grand nombre d'entreprises peuvent être
un véritable gain de temps et d'argent.
Planification de la qualité du
fournisseur La planification de la qualité du fournisseur implique des efforts visant à prévenir
les problèmes de qualité, l'évaluation du produit à l'usine du fournisseur ainsi qu'à
l'établissement de l'acheteur, les mesures correctives, l'élimination des marchandises non
conformes et l'amélioration de la qualité. Le processus commence généralement sérieusement
après qu'une source particulière a été sélectionnée. La plupart des évaluations préalables à
l'attribution sont de nature générale; une fois le fournisseur sélectionné, il est temps de
passer au niveau détaillé.
Une première étape du processus est la transmission des exigences de l'acheteur au
vendeur. Même si l'évaluation préliminaire de la capacité du fournisseur indiquait que le
fournisseur pouvait répondre à vos exigences, il est important que les exigences soient à
nouveau étudiées en détail avant le début des travaux réels.
Un contact étroit est nécessaire entre l'acheteur et le vendeur pour s'assurer que les
exigences sont bien comprises. L'avis du fournisseur doit être sollicité; une modification des
exigences pourraitelle les aider à produire des pièces de meilleure qualité ?
Ensuite, il est nécessaire de travailler avec le fournisseur pour établir des procédures
d'inspection, de test et d'acceptation du produit. Comment le produit seratil inspecté ?
Quelles sont les normes de fabrication à appliquer ? Quels tests et inspections en cours de
fabrication sont requis ? Quel niveau d'échantillonnage sera utilisé? Il convient de répondre
à ces questions et à d'autres similaires à ce stade. Il est recommandé de faire inspecter
complètement les premières pièces par le vendeur et l'acheteur pour s'assurer que le vendeur
sait quelles caractéristiques doivent être vérifiées ainsi que comment les vérifier. L'acheteur
souhaitera peutêtre se trouver dans les locaux du vendeur au début de la production.
une formation supplémentaire pour utiliser votre système. De plus, le vendeur peut souhaiter une
forme de compensation pour avoir changé sa façon de faire établie.
Si possible, laissez le fournisseur utiliser ses propres systèmes.
Le contrôle statistique des processus doit être utilisé par le fournisseur pour assurer la
stabilité d'un lot à l'autre. Lorsque le contrôle statistique est établi, il n'y a guère besoin
d'inspection finale de fin de processus chez le vendeur ou d'inspection de réception chez
l'acheteur.
Si la tenue de registres spéciaux est nécessaire, cela doit être clairement défini. Par
exemple, la plupart des principaux éléments de défense ont des exigences de traçabilité et de
contrôle de configuration. Les agences gouvernementales, telles que la FDA, ont souvent des
exigences particulières. Les constructeurs automobiles ont des exigences en matière de tenue
de registres conçues pour faciliter d'éventuels rappels futurs. Le fournisseur peut ne pas être au
courant de certaines de ces exigences, et il est dans votre intérêt mutuel de discuter de vos
besoins spécifiques dès le début du processus.
Surveillance postattribution
Jusqu'à présent, notre objectif a été de développer un processus qui minimisera la probabilité
que le fournisseur produise des articles qui ne répondent pas à vos exigences. Cet effort doit se
poursuivre une fois que le fournisseur a commencé la production. Cependant, après le début
de la production, l'accent peut passer d'une évaluation des systèmes à une évaluation des
performances réelles du programme, du processus et du produit.
L'activité de surveillance est un outil de communication. Pour être efficace, elle doit être
menée de manière éthique, avec la pleine connaissance et la coopération du vendeur. Les
techniques habituelles de communication d'entreprise, telles que la notification préalable des
visites, les présentations à la direction, les briefings de sortie et les rapports de suivi, doivent
être utilisées pour assurer une compréhension complète.
% À temps
Fournisseur % Lots acceptés Prix ($) Livraisons
UN 90 60 80
B 100 70 100
C 85 50 95
4. Les systèmes de notation ne devraient être appliqués que là où ils sont nécessaires.
5. Les notations doivent « avoir un sens » lorsqu'elles sont vues à la lumière d'autres
faits connus.
Procédés spéciaux Un
procédé spécial est un procédé qui a un effet qui ne peut pas être facilement déterminé par une
inspection ou des essais ultérieurs au traitement. La difficulté peut être due à une contrainte
physique, telle que la difficulté de vérifier la taille du grain dans un métal traité thermiquement,
ou le problème peut simplement être économique, tel que le coût de 100 % des rayons X de
chaque soudure dans un assemblage. Dans ces cas, des précautions particulières sont
nécessaires pour garantir que le traitement est effectué conformément aux exigences.
Les deux approches les plus courantes de contrôle des procédés spéciaux sont la
certification et l'audit de procédés. La certification peut être appliquée aux compétences du
personnel clé, comme la certification des soudeurs, ou aux processus euxmêmes.
Machine Translated by Google
Avec les processus, la certification est généralement basée sur une certaine capacité démontrée du processus
à effectuer une tâche spécifiée. Par exemple, un tour peut usiner une pièce d'essai spéciale conçue pour
simuler des caractéristiques de produit autrement difficiles ou impossibles à mesurer. Le fournisseur est
généralement responsable de la certification. L'audit de processus implique l'établissement d'une procédure
pour le processus spécial, puis l'examen de la performance réelle du processus pour la conformité à la
procédure. Un certain nombre de livres existent pour aider à l'évaluation des procédés spéciaux. De plus, il
existe des entreprises de services d'inspection qui vous permettent d'embaucher des experts pour vérifier que
les procédés spéciaux respectent les directives établies. Ces entreprises emploient des professionnels du
contrôle de la qualité à la retraite, ainsi que du personnel à temps plein. En plus de réduire vos coûts, ces
entreprises peuvent fournir un niveau d'expertise que vous n'auriez peutêtre pas autrement.
Partenariat et alliances
Les recherches suggèrent que les articles achetés représentent 60 % des ventes, 50 % de tous les problèmes
de qualité et 75 % de toutes les demandes de garantie. Pourtant, même ces chiffres impressionnants sous
estiment l'importance des fournisseurs pour le succès d'une entreprise. L'accent mis sur les systèmes de
gestion des stocks justeàtemps (JIT) a créé une situation dans laquelle tout glissement des engagements de
qualité ou de livraison a un impact négatif immédiat sur les calendriers de production et la capacité de l'entreprise
à expédier le produit fini. L'interdépendance du fournisseur et de l'acheteur est maintenant douloureusement
évidente. Cela a conduit de nombreuses entreprises à réduire le nombre de fournisseurs dans le but de mieux
gérer les relations avec les fournisseurs. La nouvelle approche consiste à traiter les fournisseurs comme des
partenaires plutôt que comme des adversaires. Les fournisseurs reçoivent des contrats plus importants et plus
longs et, à leur tour, ils sont censés travailler en étroite collaboration avec l'acheteur pour s'assurer que les
clients de l'acheteur sont satisfaits.
La sagesse conventionnelle dans le contrôle de la qualité américain était, pendant des décennies, que
plusieurs fournisseurs garderaient tous les fournisseurs «sur leurs orteils» grâce à la concurrence. Plusieurs
fournisseurs ont fourni une couverture contre des problèmes imprévus comme les incendies, les inondations
ou les conflits de travail, et sont devenus la norme de facto pour la plupart des entreprises (et exigée par les
principales agences gouvernementales, y compris le ministère de la Défense).
Dans les années 1980, le consensus sur les multiples sources d'approvisionnement a commencé à
s'éroder, car l'énorme succès du Japon en matière de fabrication en général et de qualité en particulier a inspiré
les hommes d'affaires américains à étudier les méthodes japonaises. Les entreprises japonaises découragent
autant que possible les achats multisources, conformément à la philosophie de W. Edwards Deming (voir
points 2 et 4 dans Deming's 14 Points, Chap. 3). Les partisans de l'approvisionnement auprès d'une source
unique soutiennent qu'il encourage le fournisseur à prendre des mesures à long terme en votre nom et rend les
fournisseurs plus fidèles et engagés dans votre réussite. Statistiquement, variabilité minimale du produit
Machine Translated by Google
peut être obtenu si les sources de variation sont minimisées et si plusieurs fournisseurs sont
une source évidente de variation.
Récemment, les inondations causées par les tsunamis au Japon ont eu un effet dévastateur
sur la chaîne d'approvisionnement, et le recours à des fournisseurs locaux uniques à long
terme a entravé le redressement de la nation dans son ensemble. Cela semble être un argument
de poids pour maintenir de multiples sources de composants clés, en particulier d'un point de
vue géographique.
La décision concernant une source unique ou une source multiple doit être prise au cas par
cas. Dans la plupart des cas, les nombreux avantages d'un fournisseur unique ne sont
contrebalancés que lorsque les risques sont assez importants.
Les interactions traditionnelles entre fournisseur et acheteur se concentraient sur diverses
formes d'inspection des produits, qui étaient souvent contradictoires. Des niveaux d'interaction
améliorés pourraient se concentrer sur la prévention des problèmes liés à la qualité, en partant
du principe que la qualité doit être construite par le fournisseur avec l'aide de l'acheteur. La
relation n'est pas conflictuelle, mais elle est toujours indépendante.
Lorsque des partenariats clientfournisseur sont développés, les acheteurs et les fournisseurs
travaillent en étroite collaboration sur des questions telles que la formation conjointe, la
planification et le partage d'informations confidentielles (par exemple, les prévisions de ventes).
Les canaux de communication sont largement ouverts et incluent de nouvelles formes telles que
concepteur à concepteur ou ingénieur qualité à ingénieur qualité. Cette approche entraîne une
communication parallèle, un changement radical de l'agent d'achat à l'approche de représentant
des ventes utilisée dans le passé (communication en série). Une étude de recherche a montré
que, pour les canaux de communication série, les niveaux de qualité sont restés stables ou ont
diminué tandis que, pour la communication parallèle, les niveaux de qualité se sont
considérablement améliorés.
Des équipes d'amélioration des processus peuvent également être formées et agréées
comme décrit dans la partie IV, où le processus à améliorer est le processus de communication
fournisseuracheteur. Ces équipes se réunissent dans les locaux du fournisseur et de l'acheteur
pour fixer les objectifs de la relation et élaborer des plans pour atteindre leurs objectifs. Le
personnel de contact et les méthodes de contact sont établis, y compris un calendrier des
réunions. Ces réunions sont utilisées pour se mettre mutuellement au courant des progrès et
des nouveaux plans, pas seulement pour discuter des problèmes. Les acheteurs montrent aux
fournisseurs comment le produit est conçu, où les matériaux du fournisseur sont utilisés et les
processus de fabrication impliqués.
Dans certains cas, des plans technologiques conjoints (JTP) sont élaborés en coopération
par les fournisseurs et les acheteurs. Les plans comprennent des exigences de performance
spécifiques, y compris des exigences de qualité, de fiabilité et de maintenabilité, et le rôle du
fournisseur dans le respect de ces exigences est défini.
JTP englobe également les processus à utiliser par les fournisseurs et les acheteurs. Des
plans de contrôle de processus sont préparés, y compris l'identification des variables de
processus clés et la manière dont elles doivent être contrôlées et surveillées.
Les tâches spéciales à effectuer par le fournisseur (par exemple, les inspections en cours de
fabrication, SPC) sont décrites. Une classification des caractéristiques et des défauts est effectuée.
Machine Translated by Google
Les acheteurs travaillent avec les fournisseurs pour élaborer des normes esthétiques et
sensorielles. Les méthodes de test et de mesure sont normalisées.
Enfin, des exigences en matière d'inspection et d'audit des produits finis sont établies. Les
exigences d'échantillonnage sont précisées ainsi que les niveaux de qualité acceptables. Des
systèmes d'identification et de traçabilité des lots sont développés. Des actions correctives et des
systèmes de suivi acceptables pour le fournisseur et l'acheteur sont institués.
Les relations de type américain Keiretsu sont compatibles et interdépendantes avec d'autres
stratégies d'entreprise, telles que la gestion de la qualité totale, la gestion stratégique des coûts,
la fabrication juste à temps, l'ingénierie simultanée, la fabrication flexible, les compétences de
base et la gestion de la chaîne de valeur. L'approche peut être appliquée à l'achat de matériel ou
à des besoins hors production et de service, tels que des services juridiques, des services de
conseil et des fournitures d'entretien, de réparation et d'exploitation.
Dans ces relations, il est important que les entreprises garantissent la protection des
compétences de base d'une entreprise par le biais d'accords précoces et lors de discussions et
d'actions ultérieures. Des disciplines pour contrôler les contacts intérimaires à tous les niveaux
sont nécessaires pour s'assurer que les relations restent concentrées dans les limites préétablies
et ne débordent pas sur des produits ou des activités techniques qui sont audelà de la portée de
la coopération convenue.
L'accent est mis sur la coopération, la confiance et la synergie; cependant, cela ne signifie pas
que les dirigeants peuvent faire preuve de négligence dans leurs pratiques commerciales. Ils ne
doivent pas contribuer au développement d'un nouveau concurrent plus fort.
Machine Translated by Google
Machine Translated by Google
PARTIE IV
Continu
chapitre 12
Amélioration
Changement efficace
Gestion chapitre 13
Définir l'étape
chapitre 14
Étape de mesure
amélioration de la qualité : améliorer les performances
Il existe deux méthodes acceptables chapitre 15
compte tenu du système actuel,pour la mise en
ou améliorer le œuvre
système
Chapitre 16 de
luimême. Les améliorations de la performance au sein d'un
l'étape d'analyse
système actuel peuvent souvent être réalisées par des individus
travaillant seuls. Par exemple : un opérateur peut apporter certains Amélioration/étape de conception
CHAPITRE 12
Changement efficace
Gestion
Machine Translated by Google
Machine Translated by Google
processus ou produit. Les experts s'accordent à dire que le changement est difficile, perturbateur,
Une amélioration efficace
coûteux et une nécessite
cause majeure de changer
d'erreur. les fondamentaux
Pourtant, de la courantes
il existe des raisons
pour lesquelles les organisations choisissent de faire face aux difficultés liées au changement :
• Demandes des clients. Les clients, grands et petits, ne sont pas liés par
vos politiques. Alors que certains peuvent demander, voire exiger que
vous changiez votre politique et vos procédures, d'autres ne diront rien
du tout et prendront simplement leurs affaires ailleurs.
245
Machine Translated by Google
3. Il y a quatre moments où le changement peut être le plus facilement effectué par le leader :
lorsque le leader est nouveau au travail, reçoit une nouvelle formation ou dispose d'une
nouvelle technologie, ou lorsque des pressions extérieures exigent un changement.
4. Les dirigeants doivent apprendre à mettre en œuvre les changements qu'ils jugent nécessaires,
les changements suggérés audessus de leur niveau et les changements exigés audessus
de leur niveau.
6. Il existe un processus standard qui soutient la mise en œuvre du changement. Certaines des
principales exigences du changement sont le leadership, l'empathie et des communications
solides.
7. Il est important que chaque leader devienne un leader du changement. Cela nécessite une
analyse de soi et la volonté de changer les choses nécessitant un changement.
Les rôles
hauts dirigeants ayant l'autorité formelle de légitimer le changement. Le parrain fait du changement
un objectif pour l'organisation et s'assure que les ressources sont affectées pour l'accomplir.
Parrainer
Équipe de direction
supérieure
Parrainer
Changer
Equipe
départementale les agents
• Agent de changement informel. Les personnes autres que l'agent de changement officiel qui
aident volontairement à planifier et à gérer le processus de changement. Bien que la
contribution de ces personnes soit extrêmement importante, elle n'est généralement pas
suffisante pour provoquer des changements vraiment significatifs à l'échelle de l'organisation.
Buts
Il y a trois objectifs de changement :
1. Changer la façon dont les gens pensent ou agissent dans l'organisation. Tout changement
commence par l'individu, à un niveau personnel. À moins que l'individu ne veuille changer
son comportement, aucun changement réel n'est possible.
Changer de comportement nécessite un changement de mentalité.
2. Changez les normes. Les normes consistent en des normes, des modèles ou des schémas
qui guident le comportement dans un groupe. Toutes les organisations ont des normes ou
des attentes visàvis de leurs membres. Le changement ne peut pas se produire tant que
les normes de l'organisation ne changent pas.
Construire l'adhésion
La plupart des organisations ont encore une structure organisationnelle hiérarchique, de
commandement et de contrôle, parfois appelée « cheminées de fumée » ou « silos ». Les
spécialistes fonctionnels en charge de chaque cheminée ont tendance à se concentrer sur
l'optimisation de leur propre domaine fonctionnel, souvent au détriment de l'organisation
dans son ensemble. De plus, la hiérarchie confère à ces gestionnaires le monopole du
pouvoir d'agir sur les matières liées à leur spécialité fonctionnelle. L'effet combiné est à
la fois un désir de résister au changement et l'autorité de résister au changement, ce qui
crée souvent des obstacles insurmontables aux projets d'amélioration de la qualité.
Il est important de réaliser que les règles organisationnelles sont, de par leur nature,
un obstacle au changement. Les règles formelles prennent la forme de procédures
d'exploitation normalisées (SOP) écrites. Le but même des SOP est de normaliser le
comportement. La profession de la qualité a historiquement mis trop l'accent sur la
documentation formelle, et elle continue de le faire en préconisant des approches telles
que ISO 9000 et ISO 14000. Les règles formelles sont souvent des réponses à des
problèmes passés, et elles continuent souvent d'exister longtemps après la raison de leur
existence. a passé. Dans une organisation qui prend au sérieux ses règles écrites, même
les hauts dirigeants se retrouvent impuissants à agir sans se soumettre à un lourd
processus de modification des règles. Le vrai pouvoir dans une telle organisation est la
bureaucratie qui contrôle les procédures. Si l'organisation tombe dans le piège de créer
des règles écrites pour trop de choses, elle peut se retrouver moribonde dans un
environnement externe en évolution rapide. Ceci est une recette
pour catastrophe.
Machine Translated by Google
Les règles restrictives n'ont pas besoin de prendre la forme de limites imposées par la
direction au personnel, ni de procédures définissant le travail horaire de façon fastidieuse (par
exemple, les règles de travail syndicales). Les projets exigent presque toujours que le travail
soit fait différemment et de telles procédures interdisent un tel changement. Les organisations
qui ont tendance à être excessives dans les SOP ont également tendance à être lourdes sur les
règles de travail. La combinaison est souvent mortelle pour les efforts d'amélioration de la qualité.
Les structures organisationnelles préservent le statu quo bien audelà des restrictions
écrites formelles sous la forme de procédures et de règles. Une autre méthode efficace pour
limiter le changement consiste à exiger l'autorisation de divers départements, comités, conseils,
conseils, experts, etc. exemple, "Vous devriez exécuter cette comptabilité passée" ou "Mme.
Reimer et M. Evans devraient être informés de ce projet. Lorsque l'autorisation pour les véhicules
de changement (par exemple, les budgets de projet, les approbations de plan) est requise d'un
groupe qui se réunit rarement, cela crée des problèmes pour les planificateurs de projet. Les
plans peuvent être précipités afin qu'ils puissent être présentés à la prochaine réunion, de peur
que le projet ne soit retardé pendant des mois. Les plans nécessitant des modifications peuvent
être suspendus jusqu'à la prochaine réunion, dans des mois. Ou les projets peuvent manquer la
date limite et être reportés indéfiniment.
De nombreuses industries ont des agences « dédiées » avec lesquelles traiter, comme la
Food and Drug Administration (FDA) pour l'industrie pharmaceutique.
Ces organismes doivent souvent être consultés avant d'entreprendre des projets. Par exemple,
un nouveau protocole de traitement pour le traitement des femmes enceintes peut impliquer
l'utilisation d'un médicament d'une nouvelle manière (par exemple, administré en ambulatoire
plutôt qu'en hospitalisation).
De nombreux professionnels font face à des risques de responsabilité qui font partie de chaque décision.
Souvent, ces peurs créent une mentalité de « jouez la sécurité » qui agit comme un obstacle au
changement. La peur est encore plus grande lorsque le projet implique des pratiques et
technologies nouvelles et non éprouvées.
• Les gens peuvent avoir des appréhensions ou même avoir peur du changement.
Le changement organisationnel exige que nous adoptions de nouvelles politiques
ou procédures, ce qui peut être troublant pour certains membres de l'organisation.
Il y a de la sécurité dans le statu quo, et la peur de l'inconnu est un obstacle
au changement. • Il est naturel, voire productif, d'être sceptique face au changement.
Le changement n'est pas toujours pour le mieux, du moins aux yeux de tous, et
même des améliorations marginales dans certains domaines peuvent nécessiter
des adaptations dans d'autres. Même lorsqu'il y a une reconnaissance générale
que le changement pourrait entraîner une amélioration, il peut y avoir un
scepticisme quant à la réalisation de l'amélioration.
Le déni
Colère
Négociation
Dépression Décision
Acceptation Action
Stratégie #2 : Changer les règles par décret. Lorsque les règles sont modifiées par
décret, le résultat est à nouveau la confusion. Quelles sont les règles aujourd'hui ? Que
serontils demain ? Cela conduit à nouveau à la stagnation parce que les gens n'ont pas la
capacité de planifier l'avenir. Bien que les règles rendent les changements difficiles, elles
offrent également une stabilité et une structure qui peuvent servir à quelque chose d'utile.
Changer arbitrairement les règles en se basant sur la force (qui est ce à quoi se résume
«l'autorité») au lieu d'un ensemble de principes directeurs fait plus de mal que de bien.
Stratégie #3 : Autoriser le contournement des règles. Ici, les règles sont autorisées,
mais des exceptions sont faites pour les "projets favoris" du leader.
Le résultat est un manque de respect général et un mépris des règles, et le ressentiment
des personnes qui sont autorisées à violer les règles qui lient tout le monde. Une
amélioration consiste à développer une méthode formelle pour contourner les règles, par
exemple, les procédures de demande de dérogation. Bien que ce soit moins arbitraire, cela
ajoute une autre couche de complexité et ne change toujours pas les règles qui rendent le
changement difficile en premier lieu.
Stratégie #4 : Rediriger les ressources vers le projet. Les leaders peuvent également
utiliser leur autorité de commandement pour rediriger les ressources vers le projet. Plutôt
que d'utiliser des schémas de priorisation logiques pour hiérarchiser les projets, l'influence
politique est la base de l'allocation.
Stratégie #2 : Mentorat. Dans la mythologie grecque, Mentor était un homme âgé, le conseiller
de confiance d'Ulysse, et le tuteur et enseignant de son fils Télémaque. Aujourd'hui, le terme
« mentor » est encore utilisé pour décrire un conseiller ou un enseignant sage et de confiance.
Lorsque cette personne occupe une position importante dans la hiérarchie de l'organisation, elle peut
être une force puissante pour éliminer les blocages. Les organisations modernes sont complexes et
déroutantes. Il est souvent difficile de déterminer où l'on doit aller pour résoudre un problème ou
obtenir une ressource nécessaire. Le mentor peut aider à guider le chef de projet à travers ce
labyrinthe en clarifiant les lignes d'autorité. En même temps, le poste de direction du mentor lui
permet de voir les implications de la complexité et de travailler à éliminer les règles et procédures
inutiles.
Stratégie #4 : Trouvez des moyens légitimes de contourner les personnes, les procédures, les
contraintes de ressources et les autres obstacles. Il peut être possible d'obtenir des approbations ou
des ressources par des moyens inconnus du chef de projet. Peutêtre qu'un changement mineur
dans le plan de projet peut contourner entièrement une procédure lourde. Par exemple, l'ajout d'un
ingénieur à l'équipe peut automatiquement placer l'autorité d'approuver les expériences de processus
au sein de l'équipe plutôt qu'entre les mains du service d'ingénierie.
Ces préoccupations doivent être prises en compte. Le changement ne peut se produire sans
l'adhésion des principales parties prenantes responsables du changement.
Les étapes suivantes peuvent être utilisées pour obtenir l'adhésion au sein de l'organisation
(Keller, 2011a) :
1. Définir les principales parties prenantes. Ce sont les individus ou les groupes qui peuvent
faire ou défaire l'initiative de changement.
2. Mesurer le niveau de référence d'adhésion pour chaque partie prenante clé. Dans quelle
mesure sontils déterminés à changer ?
Remarquez l'approche DMAIC, qui sera discutée sous peu comme le modèle d'amélioration des
processus, appliquée ici au problème de l'adhésion.
Machine Translated by Google
Ces étapes pour obtenir l'adhésion peuvent être utilisées plusieurs fois pour différents problèmes au
sein d'un projet donné, et peuvent même être utilisées de manière informelle lors d'une réunion d'équipe.
Cinq niveaux peuvent être utilisés pour évaluer l'adhésion (ou l'absence d'adhésion) des parties
prenantes ou des groupes de parties prenantes (Forum Corporation, 1996) :
•Hostilité
•Contestation
• Acceptation •
Soutien •
Adhésion
Le niveau le plus bas, l'hostilité, est facile à reconnaître. La dissidence peut passer inaperçue
jusqu'à ce que les parties prenantes soient interrogées sur l'initiative de changement, par exemple par
le biais d'une discussion ou d'un sondage. L'acceptation est le niveau d'adhésion le plus bas qui devrait
être pris en compte pour poursuivre l'initiative de changement, mais il est insuffisant. Le soutien doit être
obtenu de la majorité des groupes de parties prenantes critiques. La véritable adhésion est le niveau
souhaité, lorsque les parties prenantes sont enthousiastes dans leur engagement pour le changement.
Il existe un certain nombre de problèmes qui réduisent l'adhésion des parties prenantes (Forum
Corporation, 1996).
• Objectifs peu clairs. Les objectifs doivent être clairement communiqués tout au long
les groupes de parties prenantes.
• Aucun avantage personnel. Les objectifs doivent être énoncés en des termes qui fournissent un
lien clair avec les avantages personnels des parties prenantes, tels que la diminution des
tracas ou l'amélioration des conditions de travail.
• Solutions prédéterminées. Lorsque les équipes reçoivent la solution sans possibilité d'analyser
les alternatives, elles seront probablement sceptiques quant au résultat.
• Manque de communication. Les analyses et les résultats doivent être communiqués à tous les
groupes de parties prenantes. • Trop de priorités. Les
équipes doivent se concentrer sur des résultats réalisables. • Orientation à court terme. Les
• Aucune responsabilité. Des sponsors de projet, des parties prenantes et des membres d'équipe
clairement définis assurent la responsabilité. • Désaccord
Les chapitres suivants montreront comment ces questions sont abordées grâce à l'utilisation
de chartes de projet, parrainées par la direction et exécutées par des équipes interfonctionnelles
de parties prenantes.
Au départ, les problèmes créent des «signaux de douleur», tels que des
perturbations d'horaire et des plaintes de clients. Souvent, ces symptômes sont traités
plutôt que leurs causes sousjacentes. Par exemple, si des problèmes de qualité
entraînent des retards dans les délais qui entraînent des plaintes des clients, la
« solution » peut être de conserver un inventaire important et de trier le bon du mauvais.
Le résultat est que le calendrier est respecté et que les clients cessent de se plaindre, mais à un coût éno
Ces opportunités sont souvent plus importantes que celles qui causent des problèmes
plus visibles, mais elles sont intégrées au processus et difficiles à voir. Une solution au
phénomène des problèmes cachés est la réingénierie, qui se concentre sur les
processus plutôt que sur les symptômes. Certaines lignes directrices pour identifier
les processus dysfonctionnels en vue d'une amélioration potentielle sont présentées
dans le tableau 12.1 (Hammer et Champy, 1993).
La colonne « symptôme » est utile pour identifier les problèmes et établir des
priorités. La colonne « maladie » attire l'attention sur les causes sousjacentes du
problème, et la colonne « remède » est utile pour constituer des équipes de projet
d'amélioration de la qualité et préparer des énoncés de mission.
Inventaire, tampons et autres actifs Slack du système pour faire Supprimer l'incertitude
stockés face à l'incertitude
prioriser ces opportunités. Le PPI est calculé comme suit (Juran et Gryna, 1993) :
×
IPP = économies probabilité de succès
comp
clétion
× ost temps de
Les entrées sont, bien sûr, des estimations et le résultat dépend totalement de la
précision des entrées. Le nombre résultant est une valeur d'index pour un projet donné.
Les valeurs PPI permettent de comparer différents projets ; ils n'ont aucune signification
intrinsèque en euxmêmes. S'il y a des points forts, le PPI peut faciliter la sélection
d'un projet. Le tableau 12.2 montre les PPI pour plusieurs projets hypothétiques.
Dans cet exemple, le PPI indiquerait que les ressources doivent d'abord être
allouées à la réduction des défauts de soudure à la vague, puis à l'amélioration de la
capacité de la machine NC, et ainsi de suite. Le PPI ne donne pas toujours un ordre
aussi clair des priorités. Lorsque deux projets ou plus ont des PPI similaires, un
jugement doit être porté sur d'autres critères.
Figure 12.3 Matrice de pondération des critères (à l'aide du logiciel Quality America Green Belt XL).
Figure 12.4 Matrice d'évaluation des options pour les critères de rapport avantages/coûts (à l'aide du logiciel
Quality America Green Belt XL).
Figure 12.5 Matrice récapitulative (à l'aide du logiciel Quality America Green Belt XL).
les commentaires ont donné lieu à un examen interne, qui a validé la prévalence et
l'importance des problèmes cités, qui ont été résumés comme suit :
Un certain nombre de projets potentiels ont été définis et ces options de projet ont été
comparées à chaque critère, un à la fois, pour établir un consensus.
Machine Translated by Google
au sein de l'équipe sur la mesure dans laquelle chaque option de projet répondait aux critères. La
matrice de cotation des options pour les critères de rapport avantages/coûts est illustrée à la Fig. 12.4.
Notez qu'il y aura une matrice d'options pour chaque critère, donc huit matrices d'options dans ce
cas.
Une matrice récapitulative peut ensuite être construite en appliquant les poids des critères
(illustrés à la Fig. 12.3) à chacune des huit matrices d'options. La matrice récapitulative de
l'exemple, illustrée à la Fig. 12.5, indique que le meilleur avantage global par rapport aux critères
pondérés est fourni par le projet ECO Cycle Time Reduction.
Lorsque les critères ont le même poids, un diagramme matriciel plus simple peut être utilisé
pour comparer directement chaque option avec chaque critère. Le processus de hiérarchie
analytique, également connu sous le nom de méthode d'analyse complète, prend plus de temps,
mais permet à une équipe de parvenir à un consensus sur l'importance des critères et les avantages
relatifs de chaque projet au fur et à mesure de la génération de chaque score dans chaque cellule
de chaque projet. matrice.
P Q
90 $/unité 100 $/U
100 U/Semaine 50 U/Semaine
Pièce J J
d'achat 15 min/U 5 min/U
5 $/unité
La demande du marché pour Q est de 50 unités par semaine et Q se vend 100 $ l'unité.
Supposons que A, B, C et D sont des travailleurs qui ont des compétences différentes non
interchangeables et que chaque travailleur n'est disponible que 2 400 minutes par semaine
(8 heures par jour, 5 jours par semaine).
Pour plus de simplicité, supposons qu'il n'y a pas de variation, de gaspillage, etc. dans le
processus. Supposons que ce processus a une contrainte, Travailleur B. Ce fait a des
implications profondes pour la sélection des projets Six Sigma.
2. Décidez comment exploiter les contraintes du système. Recherchez des projets qui minimisent
le gaspillage de la contrainte. Par exemple, si la contrainte (alimente) la demande du
marché (c'estàdire une contrainte de capacité), alors nous recherchons des projets qui
assurent une livraison à 100 % dans les délais.
Ne gaspillons rien ! Si la contrainte est une machine ou une étape de processus, comme
dans cet exemple, concentrezvous sur la réduction du temps de configuration, l'élimination
des erreurs ou des rebuts et le maintien de l'étape de processus en cours d'exécution autant
que possible.
3. Subordonner tout le reste à la décision cidessus. Choisissez des projets pour maximiser le
débit de la contrainte. Après avoir terminé l'étape 2, choisissez des projets pour éliminer les
déchets des processus en aval ; une fois que la contrainte a été utilisée pour créer quelque
chose, nous ne voulons pas la perdre à cause d'une erreur en aval. Choisissez ensuite des
projets pour vous assurer que la contrainte est toujours alimentée en ressources adéquates
non défectueuses par les processus en amont. Nous poursuivons les processus en amont
en dernier car, par définition, ils ont des ressources relâchées, de sorte que les petites
quantités de déchets en amont qui sont détectées avant d'atteindre la contrainte sont moins
dommageables pour le débit.
4. Élevez la ou les contraintes du système. Élever signifie « Lever la restriction ». C'est l'étape
#4, pas l'étape #2 ! Souvent, les projets poursuivis aux étapes 2 et 3 élimineront la
contrainte. Si la contrainte continue d'exister après avoir effectué les étapes 2 et 3,
recherchez des projets qui fournissent des ressources supplémentaires à la contrainte.
Cellesci peuvent impliquer, par exemple, l'achat d'équipement supplémentaire ou
l'embauche de travailleurs supplémentaires ayant une compétence particulière.
5. Si, dans les étapes précédentes, une contrainte a été brisée, revenez à l'étape 1. La pensée
a tendance à se conditionner à l'existence de la contrainte. Une sorte d'inertie mentale
s'installe. Si la contrainte a été levée, alors il faut repenser tout le processus à zéro. Le
Processus UN B C D
Taux de rebut 8% 3% 5% 7%
commencez par des projets qui ont réduit les rebuts produits par le travailleur A. En fait, en
supposant la combinaison de produits optimale, le travailleur A a environ 25 % de temps mort,
de sorte que la perte de rebut peut être compensée sans arrêter le travailleur B, qui est la
contrainte. La table des matières suggérerait que la perte de ferraille du travailleur B et les
processus en aval C et D soient traités en premier, exactement le contraire de ce que l'analyse
de Pareto recommande.
Bien sûr, avant de décider quels projets financer, des analyses coûts/bénéfices restent
nécessaires et la probabilité de réussite du projet doit être estimée. Mais en utilisant la table des
matières, vous saurez au moins où chercher d'abord les opportunités.
Utilisation des informations sur les contraintes pour cibler les projets
Six Sigma L'application de la stratégie TOC décrite précédemment nous indique où se concentrer
dans le processus. L'ajout d'informations CTX (voir Tableau 12.4) peut nous aider à déterminer
Projet
Taper Discussion
CTQ Toute unité produite par la contrainte est particulièrement précieuse car si elle
est perdue en tant que ferraille, du temps de contrainte supplémentaire doit être utilisé
pour la remplacer ou la retravailler. Étant donné que le temps de contrainte détermine
le débit (bénéfice net de l'ensemble du système), la perte dépasse de loin ce qui
apparaît sur les rapports de rebut et de reprise. Les projets du CTQ à la contrainte
sont prioritaires.
CTS Les projets CTS peuvent réduire le temps nécessaire à la contrainte pour
produire une unité, ce qui signifie que la contrainte peut produire plus d'unités.
Cela a un impact direct sur le débit. Les projets CTS à la contrainte sont la plus haute
priorité.
CTC Étant donné que la contrainte détermine le débit, l'indisponibilité de la contrainte
entraîne une perte de débit de l'ensemble du système. Cela rend le coût des temps
d'arrêt des contraintes extrêmement élevé. Le coût d'exploitation de la contrainte est
généralement minuscule en comparaison. De plus, les projets CTC peuvent avoir un
impact négatif sur la qualité ou le calendrier.
Ainsi, les projets CTC à la contrainte sont de faible priorité.
Tableau 12.4 Priorité de débit des projets CTX qui affectent la contrainte
Machine Translated by Google
type de projet sur lequel se concentrer; c'estàdire, devonsnous nous concentrer sur la
qualité, le coût ou le calendrier des projets ? Supposons que vous ayez trois projets
candidats Six Sigma, tous axés sur l'étape B du processus, la contrainte. Le domaine
abordé est correct, mais quel projet devriezvous poursuivre en premier ? Supposons que
nous apprenions qu'un projet améliorera principalement la qualité, un autre le coût et un
autre le calendrier. Cette nouvelle information vous aidetelle ? Certainement! Consultez
le tableau 12.4 pour voir comment ces informations peuvent être utilisées. Les projets d'un
même groupe prioritaire sont classés en fonction de leur impact sur le débit.
Le même processus de réflexion peut être appliqué aux étapes de processus avant et
après la contrainte. Les résultats sont présentés dans le tableau 12.5.
Notez que le tableau 12.5 suppose que les projets avant la contrainte n'entraînent pas
de problèmes au niveau de la contrainte. N'oubliez pas que l'impact doit toujours être
mesuré en termes de débit. Si un processus en amont de la contrainte a un impact négatif
sur le débit, alors il peut être considéré comme une contrainte. Si le rendement moyen d'un
procédé en amont est suffisant pour alimenter la contrainte sur la moyenne, cela peut
encore poser problème. Par exemple, un processus en amont produisant 20 unités par jour
avec un rendement moyen de 90 % produira en moyenne 18 bonnes unités. Si la contrainte
nécessite 18 unités, les choses iront bien environ 50 % du temps, mais les autres 50 % du
temps, les choses ne iront pas bien. Une solution à ce problème consiste à placer un
inventaire des travaux en cours (WIP) entre le processus et la contrainte comme tampon
de sécurité. Ensuite, les jours où le rendement du processus est inférieur à 18 unités,
l'inventaire peut être utilisé pour maintenir la contrainte en cours d'exécution. Cependant, il
y a un coût associé à la tenue d'un inventaire WIP. Un projet Six Sigma qui peut améliorer
le rendement réduira ou éliminera le besoin d'inventaire et devrait être considéré même s'il
n'a pas d'impact direct sur la contrainte, en supposant que l'analyse avantagescoûts justifie
le projet. D'un autre côté, si un processus en amont peut facilement combler tout déficit
avant que la contrainte n'en ait besoin, alors un projet pour le processus aura une faible
priorité.
prendre 3 à 5 ans pour passer par le DMAIC (Harry et Schroeder, 2000), tandis que d'autres sont
achevés en moins d'un an.
Les projets au niveau de l'entreprise peuvent être définis au sommet d'une unité commerciale
particulière au sein d'une grande entreprise, ainsi qu'au niveau de la direction de l'entreprise. GE, par
exemple, s'est fixé des objectifs ambitieux en tant qu'entreprise et les a étendus à chacune des unités
commerciales particulières.
Les projets au niveau des opérations se concentrent sur des mesures propres aux domaines
fonctionnels de l'organisation, bien que les projets soient généralement interfonctionnels et puissent
même impliquer des clients et/ou des fournisseurs.
Les projets au niveau des opérations peuvent chercher à améliorer le rendement, à réduire les coûts
des matériaux ou de la maind'œuvre et à supprimer les usines cachées à l'échelle du système
responsables du retravail dans l'organisation. Des projets au niveau des opérations peuvent être définis
pour atteindre des objectifs au cours d'un exercice financier donné.
Les projets au niveau des processus ont une portée beaucoup plus petite et sont conçus pour une
durée beaucoup plus courte. Une ceinture noire donnée travaillera généralement trois à quatre projets
au niveau des processus par an, bien que des projets plus petits ne soient pas inconnus. En fait, il est
recommandé que les projets au niveau des processus soient définis pour permettre une conclusion
dans un délai de 3 ou 4 mois (parfois moins). Cela empêche les projets de « paix mondiale » que les
équipes de projet au niveau des processus auront du mal à mener à bien. Un objectif typique est que
chaque projet au niveau des processus économise 100 000 $ ou plus sur une base annualisée. Les
projets au niveau des processus traitent de questions telles que la réduction du temps de cycle, la
réduction des défauts, l'amélioration de la capacité des processus, etc.
Au mieux, les projets au niveau de l'entreprise, des opérations et des processus sont entrelacés.
Les résultats du niveau métier fournissent des projets définis au niveau des opérations, qui peuvent à
leur tour créer des projets au niveau des processus. Cette approche descendante est généralement
préférée à une approche ascendante, où les projets sont proposés par les membres de l'équipe ayant
un intérêt direct dans le résultat. L'approche descendante garantit que les projets au niveau des
processus sont alignés sur les objectifs commerciaux stratégiques et les besoins des clients.
Les projets développés de manière descendante offrent également une plus grande exposition de
l'équipe de projet à la haute direction, ce qui peut rendre ces projets attrayants pour les futurs chefs
d'équipe de projet. Cela dit, les projets développés au niveau du processus peuvent également offrir de
grandes récompenses : engagement des membres de l'équipe qui comprennent le processus ; la
reconnaissance locale des collègues concernés ; et des processus améliorés affectant (au moins) les
objectifs à court terme, les préoccupations budgétaires et les commandes des clients. Dans cet esprit,
il est utile de trouver un juste milieu entre la définition de projet descendante et ascendante.
Machine Translated by Google
Machine Translated by Google
CHAPITRE 13
Définir l'étape
Machine Translated by Google
Machine Translated by Google
• Définition du projet. Définir la portée, les buts et les objectifs du projet ; les membres de son
équipe et ses sponsors ; et son calendrier et ses livrables. • Définition de processus de
niveau supérieur. Définir les parties prenantes, les intrants et les extrants, et les fonctions
générales.
• Formation d'équipe. Assembler une équipe hautement compétente parmi les principaux
groupes de parties prenantes ; créer une compréhension commune des problèmes et des
avantages pour le projet.
GE a utilisé son concept d'« objectifs extensibles » pour définir les projets, en particulier les
projets au niveau de l'entreprise. Les objectifs ambitieux étaient ceux qui allaient audelà de ce qui
était prévisible avec la structure, les ressources et/ou la technologie actuelles de l'entreprise. L'idée
était d'aller audelà des améliorations progressives, de repenser l'entreprise, le fonctionnement ou le
processus à un point où des améliorations d'ordre de grandeur pourraient être réalisées. Gardez à
l'esprit qu'une organisation passant de 4 sigma à 6 sigma doit réduire les défauts par million
d'opportunités (DPMO) de 6210 à 3,4 (une réduction de 99,95 %).
Une ligne directrice générale adoptée par GE consistait à fixer l'objectif du projet par rapport au
niveau de performance existant :
267
Machine Translated by Google
Diagrammes de Pareto
Un diagramme de Pareto est un autre outil utile pour cibler la portée du projet, en particulier
lorsqu'il est appliqué aux catégories uniques obtenues à l'aide des structures de répartition
du travail.
L'analyse de Pareto est le processus de classement des opportunités pour déterminer
laquelle des nombreuses opportunités potentielles doit être poursuivie en premier.
Il est également connu comme "séparer les quelques vitaux des nombreux insignifiants".
L'analyse de Pareto doit être utilisée à différentes étapes de l'amélioration de la qualité pour
déterminer l'étape suivante. L'analyse de Pareto est utilisée pour répondre à des questions
telles que "Quel département devrait avoir la prochaine équipe d'amélioration du projet ?"
ou "Sur quel type de défaut devonsnous concentrer nos efforts ?"
Les étapes suivantes sont recommandées pour effectuer une analyse de Pareto :
8. Étiquetez l'axe horizontal avec les noms de catégorie. La catégorie la plus à gauche
doit être la plus grande, la catégorie suivante la deuxième, et ainsi de suite.
Meurtri 100
Trop petit 87
Pourri 235
Sousmaturité 9
Mauvaise variété 7
Véreux 3
Par exemple, les données du tableau 13.1 ont été enregistrées pour les pêches
arrivant au Super Duper Market en août.
Le diagramme de Pareto complété est illustré à la Fig. 13.2.
450 100
96% 98% 99%
76% 80
300
53%
60
Compter
235 Pour
cent
40
150
100
87 20
9 7 3
0 0
Pourri
Véreux
Meurtri
maturité
Sous
Trop
petit
Mauvaise
variété
Figure 13.2 Exemple d'analyse de Pareto réalisée à l'aide du logiciel Green Belt XL
(www.qualityamerica.com).
Machine Translated by Google
Planification du projet
Il existe une grande variété d'outils et de techniques disponibles pour aider le
gestionnaire de projet à élaborer un calendrier de projet réaliste pour allouer les
ressources et suivre les progrès au cours de la mise en œuvre du plan de projet.
Ces systèmes sont utilisés pour :
graphique montre les unités de temps (jours, semaines, mois, etc.). L'axe vertical indique les
activités à réaliser. Les barres indiquent l'heure de début et la durée estimées des différentes
activités.
Les diagrammes de Gantt modernes incluent généralement la désignation de jalons
(événements qui ne prennent aucun temps), ainsi que la personne responsable de chaque tâche.
Le tableau terminé montre clairement les dépendances des tâches (c'estàdire quelles
activités doivent être terminées avant qu'une activité donnée puisse être lancée) et est souvent
étiqueté avec le chemin critique. (Historiquement, le CPM [Méthode du chemin critique] était
considéré comme une alternative au Gantt. De même, le PERT [Technique d'évaluation et
d'examen des programmes] a été développé pour évaluer la planification en fonction des
temps d'activité probabilistes. Aujourd'hui, le PERT, le CPM et le Gantt comprennent en fait
une seule technique. .)
La planification de projet comprend quatre phases de base : planification, planification,
amélioration et contrôle. La phase de planification consiste à diviser le projet en activités
distinctes. Les estimations de temps pour ces activités sont ensuite déterminées et un
diagramme en réseau (ou en flèche) est construit, chaque activité étant représentée par une
flèche.
L'objectif ultime de la phase de planification est de construire un chronogramme indiquant
les heures de début et de fin de chaque activité ainsi que sa relation avec les autres activités
du projet. Le calendrier doit identifier les activités qui sont « critiques » en ce sens qu'elles
doivent être achevées à temps pour que le projet respecte l'échéancier.
Il est essentiel de ne pas simplement accepter le calendrier comme une donnée. Les
informations obtenues lors de la préparation du calendrier peuvent être utilisées pour améliorer
le calendrier du projet. Les activités que l'analyse indique comme critiques sont susceptibles
d'être améliorées. L'analyse de Pareto peut être utilisée pour identifier les éléments critiques
les plus susceptibles de conduire à une amélioration significative du temps d'achèvement
global du projet. Les données de coût peuvent être utilisées pour compléter les données de
temps, et les informations combinées temps/coût peuvent être analysées à l'aide de l'analyse de Pareto.
La phase finale de la gestion de projet est le contrôle du projet. Cela inclut l'utilisation du
diagramme de réseau et du diagramme temporel pour effectuer des programmes périodiques.
évaluations de la presse.
Événement #1
l'événement 2
Événement #2
Événement #1
Événement #2
entre les deux événements. Dans ce cas, les deux événements sont reliés par une flèche en pointillé,
représentant une activité fictive. Les activités factices ne prennent pas de temps à se terminer ; ils
montrent simplement des relations de préséance.
Ces conventions de dessin sont illustrées à la Fig. 13.5.
Le nœud vers lequel mènent toutes les activités, l'achèvement final du projet, est appelé le
puits du réseau. Taha (1976) propose les règles suivantes pour construire le diagramme fléché :
Règle 1 : Chaque activité est représentée par une et
une seule flèche dans le réseau. Aucune activité ne peut être représentée deux fois dans le
réseau. Cela ne signifie pas qu'une activité ne peut pas être décomposée en segments.
Règle 2 : Deux activités ne peuvent pas être identifiées par les mêmes événements têtebêche.
Cette situation peut se présenter lorsque deux activités peuvent être exercées simultanément. La
bonne façon de gérer cette situation est d'introduire des événements et des activités fictifs, comme
le montre la figure 13.6. Cette règle facilite l'analyse des schémas de réseau avec des programmes
informatiques pour l'analyse de projet.
Règle 3 : Afin d'assurer la relation de priorité correcte dans le diagramme en flèche, les
questions suivantes doivent être répondues au fur et à mesure que chaque activité est ajoutée au
réseau :
un. Quelles activités doivent être complétées immédiatement avant cette activité
peut commencer?
Activité 1
Activité #2
Événement fictif
Activité 1
Les données présentées dans le tableau 13.2 comprennent les activités et leurs
délais d'exécution estimés pour la construction d'une maison.
Or, il est important que certaines de ces activités se fassent dans un ordre
particulier. Par exemple, on ne peut pas mettre le toit tant que les murs ne sont pas
construits. C'est ce qu'on appelle une relation de priorité ; c'estàdire que les murs doivent
Sol 4
Peinture intérieure 5
Aménagements intérieurs 6
Toit 6
Revêtement extérieur 7
Peinture extérieure 9
Luminaires extérieurs 2
1 Commencer
Fouiller (2 jours)
Fondation (4 jours)
4 Toit (6 jours)
Plomberie
extérieure grossière (4 jours) 6
Gros
travaux
5
Factice (0 jours)
Revêtement extérieur (7 jours)
électriques (7 jours)
Plomberie
intérieure grossière (5 jours)
8
dix
Revêtement Peinture intérieure
9
de sol (4 jours) (5 jours)
Recherche du chemin
critique Il existe deux valeurs temporelles intéressantes pour chaque événement : sa
première heure d'achèvement et sa dernière heure d'achèvement. L'heure la plus précoce
pour un événement donné est l'heure estimée à laquelle l'événement se produira si les
activités précédentes sont lancées le plus tôt possible. La dernière heure pour un événement est le
Machine Translated by Google
5 20 + 5 25
8 5 20 + 0 *
6 22 + 7 29
9 7 25 + 8 33
dix 8 29 + 9 38
11 9 33 + 4 37
12 9 33 + 5 38
11 37 + 0 *
13 dix 38 + 2 *
12 38 + 6 44
Tableau 13.3 Calcul des délais d'achèvement au plus tôt pour la construction d'une maison Exemple
l'heure la plus tardive estimée à laquelle l'événement peut se produire sans retarder
l'achèvement du projet audelà de sa première heure. Les premières heures des événements
sont trouvées en commençant par l'événement initial et en progressant, en calculant
successivement l'heure à laquelle chaque événement se produira si chaque événement
immédiatement précédent se produit à son heure la plus ancienne et chaque activité
intermédiaire utilise uniquement son heure estimée. Le tableau 13.3 montre le processus
de recherche de la date d'achèvement la plus proche pour l'exemple de construction de
maison. (Les numéros d'événement renvoient au schéma de réseau de la Fig. 13.7.) Il est
conseillé au lecteur de parcourir les résultats du Tableau 13.3, ligne par ligne, en utilisant la Fig. 13.7.
Ainsi, par exemple, le plus tôt possible l'événement #8 peut être complété est de 29
jours. (Notez que les astérisques dans le tableau 13.3 indiquent les calculs qui ont abouti à
la condition non maximale. Par exemple, l'événement n° 8 se produit lorsque les deux
événements n° 5 et n° 6 sont terminés, de sorte que le calcul du temps maximum est utilisé).
8 dix 42 9 33
7 9 33 8 25
6 8 33 7 26
5 8 33 0
7 25 5 20
4 7 25 7
6 26 6
5 20 4 16
3 4 16 10 6
2 3 64 2
1 2 22 0
Tableau 13.4 Calcul des derniers délais d'achèvement pour l'exemple de la construction d'une maison
Le temps mort pour un événement est la différence entre l'heure la plus récente et
l'heure la plus ancienne pour un événement donné. Ainsi, en supposant que tout le reste
reste dans les délais, la marge d'un événement indique combien de retard dans l'atteinte de
l'événement peut être toléré sans retarder l'achèvement du projet. Les temps morts pour les
événements du projet de construction de maisons sont présentés dans le tableau 13.5.
Tableau 13.5 Calcul des temps morts pour les événements de construction de maisons
Machine Translated by Google
Le temps mort d'une activité est la différence entre l'heure la plus récente et l'heure la
plus ancienne pour une activité donnée. Ainsi, en supposant que tout le reste reste dans les
délais, la marge d'une activité indique combien de retard dans la réalisation de l'activité peut
être toléré sans retarder l'achèvement du projet.
Les temps morts pour les activités du projet de construction de maisons sont indiqués dans
le tableau 13.6.
On dit que les événements et les activités avec des temps morts de zéro se situent sur
le chemin critique du projet. Inversement, un chemin critique pour un projet est défini comme
un chemin à travers le réseau tel que les activités sur ce chemin n'aient aucune marge.
Toutes les activités et tous les événements sans marge de manœuvre doivent se trouver sur
un chemin critique, mais aucun autre ne le peut. La figure 13.8 montre les activités sur le
chemin critique du projet de construction de logements sous forme de lignes épaisses.
Activité Mou
Creuser (1,2) 2 (0 + 2) = 0
Fondation (2,3) 6 (2 + 4) = 0
Tableau 13.6 Calcul des temps morts pour les activités de construction de maisons
Machine Translated by Google
1 Commencer
Fouiller (2 jours)
Fondation (4 jours)
4 Toit (6 jours)
Plomberie
extérieure grossière (4 jours) 6
Gros
travaux
5
Factice (0 jours)
Revêtement extérieur (7 jours)
électriques (7 jours)
Plomberie
intérieure grossière (5 jours)
8
dix
Revêtement Peinture intérieure
9
de sol (4 jours) (5 jours)
identifier les « forces extérieures » comme étant la cause et demander pardon. Les chefs
de projet astucieux anticipent autant de possibilités de ce type que possible et préparent
des plans d'urgence pour y faire face. La technique PDPC est utile dans cette entreprise
(voir Chap. 16). Les retards de calendrier doivent également être traités rigoureusement
via des examens effectués à des intervalles suffisamment fréquents pour s'assurer que
tout problème imprévu est identifié avant que le retard de calendrier ne devienne un
problème.
Ressources
Les ressources sont les actifs de l'entreprise, y compris le temps des employés, qui sont
utilisés pour atteindre les objectifs du projet. Le chef de projet doit définir, négocier et
sécuriser les engagements de ressources pour le personnel, l'équipement, les installations
et les services nécessaires au projet. Les engagements de ressources doivent être aussi
précis que possible.
Les éléments suivants doivent être définis et négociés :
•Par qui?
•Quand?
•Comment seratil livré ?
•Combien ça coûtera?
l'activité
Coût
de
Point normal
Coût
normal
Durée Durée
de l'accident normale
Durée de l'activité
Pour une activité donnée, le coût par unité de temps économisé se calcule comme suit :
Lors du choix de l'activité du chemin critique à améliorer, il convient de commencer par l'activité
dont le coût par unité de temps économisé est le plus faible. Le chef de projet doit être conscient qu'une
fois qu'une durée d'activité a été réduite, il peut y avoir un nouveau chemin critique. Si tel est le cas,
l'analyse doit se poursuivre en utilisant les informations mises à jour ; c'estàdire que les activités sur le
nouveau chemin critique doivent être analysées.
Au fur et à mesure que les activités sont abordées une par une, le temps nécessaire pour terminer
le projet diminuera, tandis que les coûts directs de réalisation du projet augmenteront. La figure 13.10
illustre graphiquement la relation coûtdurée.
À l'inverse, les coûts indirects tels que les frais généraux, etc., devraient augmenter à mesure que
les projets prennent plus de temps à terminer. Lorsque les coûts indirects sont
Machine Translated by Google
Tableau 13.7 Calendrier des coûts des activités impliquées dans la construction d'une maison
projet
Cout
du
Horaire normal
Durée du projet
ajoutés aux coûts directs, les coûts totaux suivront généralement un schéma similaire
à celui illustré à la Fig. 13.11.
Pour optimiser l'utilisation des ressources, le chef de projet cherchera à
développer un plan de projet qui produit le calendrier des coûts minimum. Bien sûr,
l'organisation aura probablement plusieurs projets menés simultanément, ce qui
impose des contraintes supplémentaires sur l'allocation des ressources.
Machine Translated by Google
Coût total
Direct
frais
projet
Cout
du
Barème
Coûts des coûts minimaux
indirects
Calendrier Horaire
des accidents normal
Durée du projet
• Réunions •
Visites guidées du projet, si possible • Conversations
Les principes d'une communication efficace discutés au Chap. 20 doit être gardé
constamment à l'esprit. Le choix du format de la communication doit tenir compte de
la nature du public et de ses besoins ainsi que du temps et des ressources disponibles.
Machine Translated by Google
Formation d'équipe La
formation d'équipe efficace est essentielle pour obtenir l'adhésion des parties prenantes. Des
membres crédibles de l'équipe sont sélectionnés parmi chacun des principaux groupes de
parties prenantes pour représenter leurs domaines fonctionnels dans le projet de conception/
d'amélioration. Il est utile que les candidats soient enthousiastes à propos du changement,
mais comme indiqué précédemment, un scepticisme sain est souvent également productif.
Ils devront consacrer du temps à des activités de groupe, loin de leur domaine fonctionnel,
un soutien de la direction locale est donc nécessaire, tout comme leur volonté de servir sur
l'équipe.
Les équipes efficaces sont généralement limitées à cinq à sept participants.
Les grandes équipes sont plus difficiles à gérer et les membres peuvent perdre le sens des
responsabilités envers l'équipe. Les membres supplémentaires de l'équipe peuvent être des
membres ad hoc de groupes de parties prenantes non clés, qui ne participent qu'en cas de
besoin, par exemple pour l'expertise des processus.
Le chef d'équipe doit clairement communiquer ses responsabilités personnelles aux
membres de l'équipe lors d'une première réunion et faire respecter équitablement ces
responsabilités lors des réunions suivantes. Les responsabilités typiques incluent :
• Écouter activement
• Communiquer clairement •
Fournir des commentaires constructifs, en particulier au chef d'équipe •
Accepter les commentaires
la prise de décision. Bien que la perspicacité subjective soit valorisée dans le brainstorming à
chaque étape du DMAIC, le processus DMAIC global amènera l'équipe à collecter et à analyser
des données pour parvenir à des conclusions plus objectives. Le processus fournira au chef
d'équipe de nombreuses occasions de développer les compétences coopératives de résolution de
problèmes et de communication des membres de l'équipe, ce qui est un autre rôle important du
chef d'équipe.
Le consensus est l'approche privilégiée pour la prise de décision en équipe. Consen sus ne
veut pas dire que tout le monde est d'accord absolu, ni que tout le monde préfère la proposition.
Au contraire, le consensus implique que les parties sont prêtes à accepter la proposition malgré
leurs divergences. Une bonne question à poser aux parties prenantes pour évaluer leur niveau de
consensus est : pouvezvous vivre avec ?
Nous acceptons qu'il existe des différences de point de vue et nous nous efforçons de les concilier
avec nos outils d'analyse. L'obtention d'un consensus nous permet d'aller de l'avant, de sorte que
les mérites de la proposition peuvent être prouvés par l'analyse des données.
Les alternatives au consensus, telles que le vote à la majorité, le lancer arbitraire d'une pièce de
monnaie ou l'échange de votes contre des votes réciproques (troc), compromettent les résultats
éventuels de l'équipe et doivent être évitées.
La règle de base la plus évidente est peutêtre la communication respectueuse et invitante,
pour permettre à tous les membres de participer. À cette fin, les membres doivent « laisser leur
badge à la porte », ce qui signifie qu'il n'y a pas d'ancienneté dans une réunion d'équipe. Le chef
d'équipe n'est pas supérieur à quelqu'un d'autre dans l'équipe, et ce n'est pas non plus son projet
personnel. Au contraire, le projet appartient au sponsor et tous les membres de l'équipe servent à
la demande du sponsor.
Enfin, les membres de l'équipe doivent accepter la responsabilité des éléments d'action et être
prompts à assurer le suivi de ces éléments. Les chefs d'équipe doivent s'assurer que le temps des
membres de l'équipe est utilisé de manière responsable. En règle générale, il est préférable de ne
se réunir que lorsque cela est nécessaire, bien que des heures par défaut puissent être établies
pour les réunions afin d'aider les membres à allouer du temps. L'équipe fournit essentiellement
son expertise en matière de processus, et l'équipe ne devrait être convoquée que lorsque ces compétences
sont nécessaires.
La première étape dans l'établissement d'un groupe efficace consiste à créer une règle de
décision consensuelle pour le groupe. Par exemple:
Aucun jugement ne peut être incorporé dans la décision du groupe tant qu'il n'a pas reçu l'approbation
au moins tacite de chaque membre du groupe.
Machine Translated by Google
• Considérez l'entente initiale comme suspecte. Explorer les raisons qui soustendent
les accords apparents ; assurezvous que les gens sont arrivés aux mêmes
conclusions pour les mêmes raisons fondamentales ou pour des raisons
complémentaires avant d'incorporer ces opinions dans la décision du groupe.
• Évitez les formes subtiles d'influence et de modification des décisions. Par exemple,
lorsqu'un membre dissident est finalement d'accord, ne pensez pas qu'il doit être
récompensé en suivant sa propre voie sur un point ultérieur. • Soyez prêt à
envisager la possibilité que votre groupe puisse réaliser tout ce qui précède et exceller
dans sa tâche. Évitez les prédictions catastrophiques et négatives sur le potentiel
du groupe.
Collectivement, les étapes cidessus sont parfois connues sous le nom de « technique
du consensus ». Lors de tests, il a été constaté que 75 % des groupes qui ont été formés à
cette approche ont nettement surpassé leurs meilleures ressources individuelles.
•Ne serrez pas le contrôle ou n'essayez pas de forcer les membres à se conformer
aux procédures ou aux règles établies lors de l'étape de formation. Si des
différends sur les procédures surviennent, orientez le groupe vers de nouvelles
procédures basées sur un consensus de groupe.
• Sondez les véritables raisons du conflit et négociez une solution plus acceptable.
• Servir de médiateur
entre les membres du groupe. • Affrontez directement les
comportements contreproductifs. •Poursuivre l'évolution
du groupe vers l'indépendance visàvis de son leader.
Problème Action
Utiliser des opinions plutôt que des faits • Insister sur les données
Attribution (c'estàdire attribuer des motifs à des personnes • Ne devinez pas les motivations •
avec lesquelles nous ne sommes pas d'accord) Utilisez une méthode scientifique
Un autre type de rôle joué dans de petits groupes est les rôles de maintenance de groupe. Les
rôles de maintenance de groupe visent à créer une cohésion de groupe et un comportement centré
sur le groupe. Ils incluent les comportements indiqués dans le tableau 13.10.
Rôle Description
Initiateur Propose de nouvelles idées, tâches ou objectifs ; suggère des procédures ou
des idées pour résoudre un problème ou pour organiser le groupe
Donneur d'avis Donne son avis sur les suggestions faites ; l'accent est mis sur les valeurs
plutôt que sur les faits
Énergisant Tente de faire avancer le groupe vers une action Empêche le groupe
Procédure d'être distrait par l'exécution de tâches telles que la distribution de matériel, la
technicien vérification des sièges, etc.
Enregistreur Sert de mémoire de groupe
Rôle Description
Compromis Ce rôle peut être assumé lorsque l'idée d'un membre du groupe est
contestée; admet des erreurs, propose de modifier sa position
Disciple Accepte passivement les idées des autres ; sert de public dans les
discussions de groupe
Rôle Description
Chercheur de reconnaissance Attire l'attention sur luimême en se vantant, en relatant ses réalisations
personnelles, etc.
Confesseur Utilise le cadre de groupe comme un forum pour diffuser des idéologies
personnelles qui ont peu à voir avec les valeurs ou les
Demandeur d'aide supérieur Tente d'évoquer la sympathie et/ou l'aide des autres
membres par une attitude « pauvre de moi » Affirme les
Plaideur d'intérêt intérêts d'un groupe particulier ; l'intérêt de ce groupe correspond à son
spécial intérêt personnel
Rôle de la direction
Comme indiqué au Chap. 12 et plus haut dans ce chapitre, la direction joue un rôle clé
dans la réussite des efforts de changement. Dans les projets d'amélioration, ils jouent
un rôle essentiel en tant que parrain du projet, garantissant que les équipes disposent
de l'autorité nécessaire pour étudier et mettre en œuvre les changements, et que les
ressources sont allouées en temps opportun.
En plus de ces responsabilités critiques, la chose la plus importante que la direction
puisse faire pour un groupe est peutêtre de lui donner le temps de devenir efficace.
Cela exige, entre autres, que la direction s'efforce de maintenir une appartenance
cohérente au groupe. Les membres du groupe ne doivent pas être déplacés hors du
groupe sans très bonne raison. Il ne devrait pas non plus y avoir un flux constant de
nouvelles personnes temporairement affectées au groupe. Si un groupe doit progresser
à travers les quatre étapes décrites précédemment dans ce chapitre, jusqu'à l'étape
cruciale de la performance, cela exigera beaucoup de discipline de la part du groupe et
de la direction.
Machine Translated by Google
CHAPITRE 14
Étape de mesure
Machine Translated by Google
Machine Translated by Google
métrique. Définir des métriques pour établir de manière fiable des estimations de processus.
• Ligne de base du processus. Utilisez les métriques définies pour établir l'état actuel du
processus, qui doit vérifier les hypothèses de l'étape Définir. Déterminer si le processus
est sous contrôle statistique. • Analyse des systèmes de mesure. Quantifier les erreurs
associées à la
métrique.
Définition de processus Un
organigramme de processus est simplement un outil qui montre graphiquement les entrées, les
actions et les sorties d'un système donné. Ces termes sont définis comme suit :
Actions. La manière dont les intrants sont combinés et manipulés afin d'ajouter de la valeur.
Les actions comprennent les procédures, la manutention, le stockage, le transport et le
traitement.
Les sorties. Les produits ou services créés en agissant sur les intrants.
Les sorties sont livrées au client ou à un autre utilisateur. Les extrants incluent également les
résultats imprévus et indésirables , tels que les rebuts, les retouches, la pollution, etc. Les
organigrammes doivent également contenir ces extrants.
L'organigramme est une activité si utile que les symboles ont été normalisés par diverses
normes ANSI. Il existe des symboles spéciaux pour les processus spéciaux, tels que l'électronique
ou les systèmes d'information. Cependant, dans la plupart des cas, les activités sont contenues
dans de simples rectangles ; points de décision dans les losanges, avec une entrée et seulement
deux sorties potentielles (un chemin oui/non).
Les organigrammes peuvent être rendus plus complexes ou moins complexes. En règle
générale, pour paraphraser Albert Einstein, "les organigrammes devraient être aussi
295
Machine Translated by Google
aussi simple que possible, mais pas plus simple. Le but de l'organigramme est d'aider les gens à comprendre
le processus, et cela n'est pas accompli avec des organigrammes trop simples ou trop complexes.
Lorsque les organigrammes indiquent un plus grand nombre de points de décision, c'est souvent le signe
d'un processus trop compliqué qui a un potentiel d'erreur. Heureusement, les points de décision sont aussi un
axe potentiel d'amélioration.
Les cartes de processus sont des organigrammes qui montrent également, via des couloirs de nage, comment le
les éléments de processus se déplacent entre les domaines fonctionnels, comme illustré à la Fig. 14.1.
définition du projet comprend un énoncé des paramètres qui seront utilisés pour évaluer le processus. Il est
important de choisir des mesures qui garantiront que vous améliorez réellement la qualité, les performances
commerciales et la satisfaction client. La mesure des bénéfices et de la croissance n'est pas recommandée à
cette fin car ils sont généralement lents à réagir à l'insatisfaction des clients et peuvent indiquer des
améliorations à court terme au détriment de la viabilité à long terme. Des mesures correctement choisies
fourniront des informations pour la prise de décision basée sur les données et deviendront le langage utilisé
pour communiquer le statut et le bienêtre de l'entreprise ou du processus.
Machine Translated by Google
Une fois établies, ces mesures peuvent être utilisées pour déterminer l'importance relative
de divers facteurs affectant les processus et les unités commerciales, ainsi que pour comparer
les contributions des différents processus, unités commerciales et concurrents au succès
global de l'entreprise. Ils fournissent également une base de référence pour évaluer les
résultats des efforts d'amélioration Six Sigma.
En bref, les métriques nous fournissent un énoncé de ce qui est essentiel à la qualité, au
coût et/ou à la planification ; comment ceuxci seront mesurés et rapportés ; et comment ces
mesures critiques pour la qualité (CTQ), critiques pour les coûts (CTC) et critiques pour le
calendrier (CTS) sont corrélées avec les variables et contrôles de processus clés pour obtenir
des améliorations à l'échelle du système.
Au niveau du processus, vous pouvez établir une ligne de base en mesurant la capacité
actuelle du processus. D'autres mesures courantes dans Six Sigma sont le rendement de
bout en bout, le rendement normalisé et le niveau Sigma pour les étapes de processus
individuelles, et le rendement de débit roulé pour les processus complets.
La variation du procédé ne peut être estimée qu'après que la stabilité du procédé a été établie
à l'aide d'une carte de contrôle. Seuls les processus stables peuvent être prédits ; les
processus instables sont la combinaison de plusieurs processus, chacun se produisant à des
intervalles de temps distincts.
Lorsque le processus est instable ou n'est pas sous contrôle statistique, un indice de
performance du processus peut être utilisé comme estimation approximative pour comparer la
variation observée au sein d'un échantillon donné avec les exigences du client.
Une carte de contrôle est essentielle à ce stade afin que les résultats d'amélioration
obtenus plus tard dans le projet puissent être estimés de manière fiable. Lorsque des efforts
d'amélioration sont effectués sans l'utilisation d'une carte de contrôle, il est difficile de prouver
que l'amélioration a eu un effort réel, car toute amélioration du résultat peut avoir simplement
coïncidé avec la nature sporadique de la cause spéciale.
Lorsque des cartes de contrôle sont utilisées pour référencer le processus et que le
processus est hors de contrôle, l'équipe peut découvrir rapidement la cause. Si cette cause
particulière est de l'ordre de grandeur qui a justifié le projet, le projet est en voie de conclusion
rapide. Dans tous les cas, il s'agit d'informations nécessaires pour l'étape d'analyse, car la
variation de cause commune doit être traitée très différemment de la variation de cause
spéciale.
Au niveau de l'entreprise, nous cherchons souvent à mesurer les perceptions du client
sur l'état actuel du produit, la livraison du produit et/ou le service
Machine Translated by Google
est simplement une affectation numérique à quelque chose, généralement un élément non
numérique. Les mesures transmettent certaines informations sur la relation entre l'élément et
d'autres éléments. La mesure implique un domaine théorique, un domaine de préoccupation de
fond représenté comme un système relationnel empirique et un domaine représenté par un
système relationnel numérique particulier sélectionné. Il y a une fonction de cartographie qui
nous fait passer du système empirique au système numérique. Le système numérique est
manipulé et les résultats de la manipulation sont étudiés pour aider le gestionnaire à mieux
comprendre le système empirique.
Ordinal Peut dire qu'un élément a plus ou moins un Goût; Ordre de classement
Rapport Le vrai point zéro indique l'absence Temps écoulé; test t ; test F ;
d'un attribut ; peut additionner, distance; corrélations ;
soustraire, multiplier et diviser lester régression
multiple
tous les objets de l'univers sont membres d'une et d'une seule classe. Les données
collectées sur une échelle nominale sont appelées données d'attributs. Les seules
opérations mathématiques autorisées sur les échelles nominales sont = (ce qui
montre qu'un objet possède l'attribut concerné) ou ≠.
Une variable ordinale est une variable qui a un ordre naturel de ses valeurs
possibles, mais pour laquelle les distances entre les valeurs ne sont pas définies. Un
exemple est les classements de préférence de produit tels que bon, meilleur, meilleur.
Les données ordinales peuvent être analysées avec les opérateurs mathématiques =
(égalité), ≠ (inégalité), > (supérieur à) et < (inférieur à). Il existe une grande variété de
techniques statistiques qui peuvent être appliquées aux données ordinales, y compris
la corrélation de Pearson. D'autres modèles ordinaux incluent des mesures de rapport
de cotes, des modèles loglinéaires et des modèles logit. Dans la gestion de la qualité,
les données ordinales sont généralement converties en données nominales et
analysées à l'aide de modèles binomiaux ou de Poisson. Par exemple, si les pièces
ont été classées en utilisant un ordre médiocre bonexcellent, l'ingénieur qualité peut
tracer un graphique p de la proportion d'articles dans la catégorie médiocre.
Les échelles d'intervalle consistent en des mesures où les rapports de
différences sont invariants. Par exemple, 90°C = 194°F, 180°C = 356°F, 270°C =
518°F, 360°C = 680°F. Maintenant, 194°F/90°C ≠ 356°F/180°C mais
° °
356° −F194° F 180 CC− 90
° − ° = ° − °
680 F 518 F 360 °C 270 °C
Machine Translated by Google
y = ax + b, a > 0
Par exemple,
° 9 °
F 32
+ ×=5 C
où a = 9/5 et b = 32. Comme pour les échelles de rapport, lorsque les transformations
admissibles sont rendues statistiques, les résultats ne sont pas affectés par l'échelle
d'intervalle utilisée. De plus, 0° (sur l'une ou l'autre échelle) est arbitraire. Dans cet exemple,
zéro n'indique pas une absence de chaleur.
Les mesures d'échelle de rapport sont ainsi appelées parce que les mesures d'un
objet dans deux métriques différentes sont liés l'un à l'autre par un rapport invariant. Par
exemple, si la masse d'un objet était mesurée en livres (x) et en kilogrammes (y), alors x/y
= 2,2 pour toutes les valeurs de x et y. Cela implique qu'un passage d'une échelle de
mesure de rapport à une autre s'effectue par une transformation de la forme y = ax, a > 0 ;
par exemple, livres = 2,2 × kilogrammes.
Lorsque des transformations autorisées sont utilisées, les résultats statistiques basés sur
les données sont identiques quelle que soit l'échelle de rapport utilisée. Zéro a une
signification inhérente : dans cet exemple, il signifie une absence de masse.
La fiabilité et la validité
Fondamentalement, toute mesure d'item doit répondre à deux tests :
L'item mesure ce qu'il est censé mesurer (c'estàdire qu'il est valide). Une nouvelle
mesure ordonnerait les réponses individuelles de la même manière (c'estàdire qu'elle
est fiable).
Le reste de cette section décrit les techniques et les procédures conçues pour s'assurer
que les systèmes de mesure produisent des nombres avec ces propriétés. Un bon système
de mesure possède certaines propriétés. Tout d'abord, il doit produire un nombre « proche
» de la propriété réelle mesurée ; c'estàdire qu'il doit être exact. Deuxièmement, si le
système de mesure est appliqué à plusieurs reprises au même objet, les mesures produites
doivent être proches les unes des autres ; c'estàdire qu'il doit être répétable.
Troisièmement, le système de mesure doit être capable de produire des résultats précis et
cohérents sur l'ensemble de la plage concernée ; c'estàdire qu'il doit être linéaire.
Quatrièmement, le système de mesure doit produire les mêmes résultats lorsqu'il est utilisé
par toute personne correctement formée ; c'estàdire que les résultats doivent être
reproductibles. Enfin, appliqué aux mêmes éléments, le système de mesure devrait
produire à l'avenir les mêmes résultats que par le passé; c'estàdire qu'il doit être stable.
Le reste de cette section est consacré à la discussion des moyens de vérifier ces propriétés
pour des systèmes de mesure particuliers. En général, les méthodes et les définitions
présentées ici sont conformes à celles décrites par l'Automotive Industry Action Group
(AIAG).
Machine Translated by Google
Définitions
Biais. La différence entre la valeur mesurée moyenne et une valeur de référence
est appelée biais. La valeur de référence est une norme convenue, telle qu'une
norme traçable à un organisme national de normalisation. Lorsqu'il est appliqué
à l'inspection des attributs, le biais fait référence à la capacité du système
d'inspection des attributs à produire un accord sur les normes d'inspection. Le
biais est contrôlé par l'étalonnage, qui est le processus de comparaison des
mesures avec les normes. Le concept de biais est illustré à la Fig. 14.2.
Valeur de Mesure
référence moyenne
Machine Translated by Google
Figure 14.3
Répétabilité
illustrée.
Répétabilité
Reproductibilité
illustrée.
Queue
Jeanne
Reproductibilité
Vendredi
Figure 14.5 Stabilité
illustrée.
Mercredi
Lundi
La stabilité
Taille de
pièce proche
du haut de gamme
Taille de la
pièce proche du
milieu de gamme
Mesures de
une pièce vérifiée à
plusieurs reprises
Taille de la
pièce proche de la
extrémité de la plage
303
Machine Translated by Google
Machine Translated by Google
CHAPITRE 15
Étape d'analyse
Machine Translated by Google
Machine Translated by Google
La valeur n'est pertinente qu'à un prix et à un moment précis. Un problème courant dans la
spécification de la valeur est que les organisations ont tendance à se concentrer sur ce qu'elles
sont capables de fournir, plutôt que sur ce que les clients veulent vraiment, le sophisme de "nous
connaissons leurs besoins mieux qu'eux". Bien sûr, lorsqu'ils essaient ensuite d'améliorer le
processus de conception ou de livraison, le résultat peut être un muda plus efficace, mais le
muda n'est pas le même. L'utilisation des hubs par l'industrie du transport aérien en est un
excellent exemple, fréquemment cité par Womack et Jones. Les hubs répondent au besoin des
compagnies aériennes de bien utiliser leurs ressources existantes, mais ne fournissent pas ce
que le client veut vraiment : un voyage sans tracas directement d'un point A à un point B.
Une fois les vrais besoins du client définis, un coût cible est déterminé, qui est le coût de
livraison une fois tous les déchets éliminés.
Si des produits ou services concurrents existent sur le marché, le coût cible peut être déterminé
en étudiant les besoins du client, en déterminant les déchets qui existent dans le produit/service
actuel et en calculant le coût de livraison une fois les déchets éliminés. La réduction des coûts de
livraison peut entraîner une baisse des prix pour le client ou une augmentation des marges pour
le
entreprise.
307
Machine Translated by Google
2. Étapes qui ne créent aucune valeur pour le client, mais qui sont requises par une ou
plusieurs activités requises (y compris la conception, le traitement des commandes,
la production et la livraison). Cellesci sont appelées muda de type 1 (ou plus
communément activités commerciales à valeur ajoutée).
3. Des étapes qui ne créent aucune valeur client. Ceuxci sont appelés muda de type 2
et représentent le proverbial fruit à portée de main. Ils doivent et peuvent être
éliminés immédiatement.
Les temps de cycle doivent également être inclus pour faciliter l'analyse. Mesurez le
temps « pratique » pour terminer l'étape du processus, qui est mieux estimé à l'aide d'un
tableau de contrôle pour le temps de la tâche. Le « temps d'arrêt » de l'activité est également
intéressant : la durée pendant laquelle les éléments restent en file d'attente.
• Si nous avons une ligne de processus dédiée, de sorte que l'entrée de chaque étape
du processus ne provienne que des étapes qui la précèdent immédiatement dans
cette analyse de la chaîne de valeur, calculez alors le nombre d'éléments en file
d'attente, tel que déterminé par la carte de contrôle. • Si l'étape
de processus reçoit des entrées de plusieurs sources et est multitâche, de sorte que
l'article doit attendre que la ressource soit à nouveau disponible, mesurez le temps
pendant lequel l'article ou le client attend dans la file d'attente pour cette étape de
processus. Ceci est mieux déterminé à l'aide d'une carte de contrôle pour le temps
d'attente.
Après avoir additionné les temps moyens, nous pouvons calculer le délai et la vitesse
moyens du processus. Le délai de livraison est le temps nécessaire pour traiter tous les
travaux en cours, avant que de nouvelles commandes puissent être lancées. La vélocité,
parfois appelée flux, fait référence à la vitesse de livraison du processus. La vitesse offre une
flexibilité et une meilleure réactivité aux demandes des clients. En réduisant les délais de
traitement, nous pouvons répondre rapidement aux nouvelles commandes ou aux modifications
requises par le client.
Le délai d'exécution est réduit et la vitesse accrue lorsque le travail en cours est réduit.
(Travaux en cours, alias travaux en cours, ou plus simplement WIP, fait référence
Machine Translated by Google
pour commander des articles qui ont été partiellement traités, mais qui ne sont pas encore prêts
à être remis au client.) La raison est simple : les nouvelles commandes des clients ne peuvent
pas être lancées tant que le travail (ou les articles) en cours n'est pas terminé. Ainsi, l'activité
sur les nouveautés est au point mort. Un exemple d'un processus de service est la salle d'attente
d'un médecin. Les patients sont en cours de traitement. Les nouveaux patients ne sont pas pris
en charge par le médecin tant que ceux qui sont arrivés plus tôt ne sont pas terminés.
Lorsqu'une étape de processus reçoit des éléments d'une seule étape qui la précède, la loi
de Little est utilisée pour calculer le délai de traitement en multipliant le nombre d'éléments en
cours (en file d'attente) par le temps nécessaire pour terminer chaque élément.
Par exemple, s'il faut en moyenne 2 heures pour terminer chaque bon de commande et qu'il y a
10 bons de commande en file d'attente, alors nous avons besoin de 10 fois 2 équivaut à 20
heures de délai pour le processus. En d'autres termes, nous ne pouvons pas traiter de nouvelles
commandes tant que le délai de 20 heures n'a pas permis de terminer les travaux en cours
existants.
Lorsque le temps nécessaire pour terminer est excessif, les sources potentielles de retard
incluent :
de configuration excessifs
La réduction ou l'élimination des temps de cycle sans valeur ajoutée fournit souvent les
méthodes les plus claires et les plus directes pour réduire le temps de cycle et les délais
d'exécution pour une meilleure vitesse. Il n'est pas rare que plus de 50 % de la durée d'un cycle
de processus consiste en des activités sans valeur ajoutée.
L'une des premières étapes de tout projet de réduction du temps de cycle devrait être
d'identifier et d'éliminer les déchets de type 2 ; les étapes du processus qui ne sont tout
simplement pas nécessaires. Cellesci peuvent inclure des activités telles que des autorisations
ou des approbations de routine, ou la collecte d'informations et de données qui ne sont pas nécessaires.
Nous pouvons forcer une réduction du temps de cycle grâce à une réduction des erreurs
nécessitant une reprise. Les pratiques pour y parvenir comprennent la standardisation des
procédures, la prévention des erreurs et l'amélioration de la capacité des processus. Chacun
d'eux est traité au Chap. 16. À mesure que les erreurs nécessitant une reprise sont éliminées,
les inspections et les approbations à valeur ajoutée actuellement nécessaires peuvent également
être réduites ou éliminées.
Plutôt que de simplement réduire les erreurs, les outils d'optimisation permettent au
processus de fonctionner à un niveau amélioré par rapport aux exigences des clients. Par
exemple, le temps de cycle peut être réduit à un point qui va audelà de l'élimination des
réclamations jusqu'au niveau de satisfaction des clients. Ces outils, évoqués au Chap. 16,
comprennent des expériences conçues, une analyse de surface de réponse et des simulations
de processus. Par exemple, dans un processus de service, nous pourrions utiliser ces outils
pour optimiser le nombre de personnel formé à chaque station du processus, en fonction du
mélange de clients arrivant à un moment donné.
Machine Translated by Google
Un mouvement excessif de matériel et/ou de personnel entre les étapes du processus est sans
valeur ajoutée, tel qu'identifié dans la quatrième définition des déchets.
Une conception efficace de la disposition des processus réduit les mouvements physiques sans
valeur ajoutée. Par exemple, un échantillon de laboratoire passe du procédé à un laboratoire situé
de l'autre côté de l'usine. Une fois l'échantillon analysé, les résultats sont transmis au service qualité,
puis renvoyés au processus où ils sont nécessaires au traitement de la commande.
Un diagramme spaghetti est utile pour mettre en évidence la mauvaise disposition physique.
Les outils 5S seront utilisés dans l'étape Améliorer pour créer les conditions d'un mouvement
physique réduit.
L'attente augmente le délai en augmentant à la fois le temps d'exécution et le nombre d' éléments
en file d'attente. À cet égard, son impact sur l'équation du délai d'approvisionnement est amplifié.
Les éléments de processus subiront une attente lorsque le personnel de processus n'est pas
disponible pour travailler sur les éléments de processus. Cela peut se produire pour diverses raisons,
notamment :
• Multitâche • Étapes
de configuration longs
Le cas du multitâche au sein des départements, ou des départements qui sont spécialisés et
reçoivent des éléments de processus de plusieurs sources, doit être identifié. Ces problèmes peuvent
être résolus à l'étape d'amélioration grâce à une politique de priorisation appropriée ou à un personnel
dédié.
Le chargement de niveau est utilisé pour équilibrer ou faire correspondre les taux de production
des étapes du processus. Lorsque nous avons atteint le chargement de niveau de nos processus,
tous les travaux en cours (éléments en file d'attente) sont supprimés : il n'y a pas d'attente car les
éléments passent d'une activité de processus à la suivante. Cette réduction des stocks physiques
améliore les flux de trésorerie et, en fin de compte, les coûts. L'argent dépensé pour des travaux
partiels ou achevés ne génère aucun revenu pour l'organisation tant que l'article n'est pas vendu.
Les stocks cachent des problèmes, tels que des rendements de processus imprévisibles ou
faibles, des pannes d'équipement ou des niveaux de production inégaux. Lorsque le stock existe en
tant que travail en cours, il empêche le traitement de nouvelles commandes jusqu'à ce que le WIP
soit terminé. Bien que ces concepts soient plus clairement identifiés aux processus de fabrication, ils
persistent dans les processus de service, où l'inventaire peut faire référence à des patients en soins
de santé, à des hamburgers au fastfood ou à une piscine inachevée en construction.
Le flux chargé par niveau est sans lot, avec un temps de cycle plus court par unité (délai
d'exécution plus court), une flexibilité accrue, un temps de réponse réduit et une augmentation du
pourcentage d'activités à valeur ajoutée.
Pour équilibrer les étapes du processus, nous calculons d'abord le takt time en divisant la
ressource disponible (en unités de temps) par la demande de production
Machine Translated by Google
(en articles). Takt est un mot allemand signifiant métronome et est utilisé pour indiquer le rythme
souhaité du processus. Le takt time est affiché au niveau de la cellule et les ressources (machines,
personnel) à chaque étape du processus sont équilibrées de manière à ce que son temps de
cycle soit égal au takt time. Ce chargement de niveau garantit que les biens produits à chaque
étape sont utilisés immédiatement par l'étape suivante, assurant un flux constant d'articles (ou de
services) à travers le flux de valeur. Si une augmentation temporaire des commandes est reçue,
le rythme reste le même, mais les ressources sont déplacées pour répondre à la demande. De
cette manière, les étapes du processus sont dotées de ressources pour s'adapter à un système
de gestion par tirage, dans lequel les éléments ne sont traités que lorsque l'opération suivante en
a besoin.
Le concept lean de transparence, ou contrôle visuel, rend chacun conscient de l'état actuel
du processus et s'est avéré réduire le temps de réaction au gaspillage, favoriser la responsabilité
et aider à la résolution de problèmes.
Bien que nous puissions généralement concevoir le processus et allouer des ressources
standard pour que tout processus respecte son temps de takt standard, nous reconnaissons
qu'un changement de la demande modifiera les exigences de temps de takt. Une façon de
s'adapter à l'ajustement du temps takt est de déplacer les ressources.
Une fois que le personnel et l'équipement ont été réorganisés en cellules de produits,
l'allocation des ressources à ces cellules devient critique. Nous calculons le takt time en divisant
le nombre d'heures de disponibilité de la ressource par la demande totale. Par exemple, si le
produit a une demande moyenne de 60 unités par jour et que la cellule fonctionne 15 heures par
jour (deux équipes, moins les pauses), le takt time est calculé sur 15 minutes (c'estàdire 0,25
heure par unité).
Les lots sont difficiles à faire correspondre au takt time, car ils perturbent le flux continu du
processus. Par exemple, une procédure de laboratoire passe 16 échantillons à la fois dans une
centrifugeuse. Le premier échantillon à atteindre cette étape attend la réception du 16e échantillon.
Si vous êtes le patient qui attend les résultats de ce premier échantillon, vous n'êtes pas servi
efficacement (de votre point de vue).
Le processus reste inactif en attendant les 16 échantillons complets. De plus, l'étape suivante du
processus reçoit les 16 échantillons en même temps, ce qui crée une forte augmentation de la
demande. Une meilleure utilisation des ressources dans l'ensemble du système consiste à niveler
la charge à un flux constant tout au long du processus.
Le problème avec les lots est qu'ils ne sont pas aussi efficaces, du point de vue des systèmes
et du point de vue du client, qu'ils le paraissent.
Aussi ironique que cela puisse paraître, l'une des principales raisons pour lesquelles nos
processus contiennent des déchets est due à nos tentatives historiques pour les rendre plus
efficaces. Une erreur que nous avons acceptée est que nous pouvons rendre les processus plus
efficaces en créant des départements spécialisés qui traitent le travail par lots. Ces départements
deviennent efficaces dans ce qu'ils font du point de vue des processus, avec des quantités de
lots économiques conçues pour minimiser le temps de configuration ou les coûts de livraison des
matériaux, mais ils manquent d'efficacité par rapport aux flux de valeur de produits spécifiques.
Des déchets sont créés en attendant que le lot commence son traitement départemental, et des
déchets sont en outre créés lorsque des unités particulières de
Machine Translated by Google
produit, pour lequel les clients attendent, doit attendre que le reste du lot soit traité.
Ce gaspillage imposé par les lots est aggravé si des changements se produisent dans la
conception ou les besoins des clients, car les travaux en cours (WIP) ou les inventaires de
produits finaux nécessitent une reprise ou deviennent des rebuts. Notez que ces concepts ne
se limitent pas à la fabrication ; les entreprises du secteur des services peuvent également
générer des déchets. Pensez aux hamburgers préparés à l'avance, à l'attente d'une
commande ou à la vérification des relevés de compte qui arrivent à la fin du mois, longtemps
après que vous pourriez éventuellement éviter un découvert.
Trois raisons courantes pour lesquelles nous sommes « forcés » de considérer les lots sont :
Un exemple du premier cas est l'expédition d'un lot d'articles, alors que le client ne veut
vraiment qu'un ou quelques articles. Le client doit accepter l'inventaire dont il ne veut pas ou
peut attendre d'avoir besoin de plusieurs articles avant de passer une commande. En lean,
nous essayons de réduire l'espace entre le fournisseur et le client pour réduire les coûts de
déplacement. L'efficacité de la production offshore peut être inférieure à ce que l'on perçoit si
l'on tient compte des coûts réels des expéditions des consommateurs, des consommateurs
détenant des stocks inutilisés et des consommateurs attendant des expéditions retardées.
Lorsque les processus sont conçus pour produire plusieurs articles, ils peuvent être
inefficaces pour les petits lots. La plupart des fours de cuisine modernes sont conçus avec
une grande capacité pour cuire la dinde, la farce et les pommes de terre en même temps à
Thanksgiving. Et si nous voulions faire des cookies ?
Les boîtes de mélanges préparés sont destinées à des dizaines de biscuits, tout comme les
fours, même si nous préférons souvent ne manger que quelques biscuits fraîchement cuits
ce soir, puis quelques biscuits fraîchement cuits demain, et ainsi de suite.
Dans les opérations de fabrication, le terme monument fait référence à l'équipement acheté
qui a été conçu pour une grande capacité et limite notre capacité à fabriquer de petits lots
maigres.
Lorsque le temps de configuration domine, il est naturel de traiter autant d'éléments que
possible pour répartir les coûts de configuration sur l'ensemble du lot. C'était courant dans les
Machine Translated by Google
l'industrie automobile avant les années 1980, avant qu'ils ne fassent des efforts concertés pour
réduire les temps d'installation. À cette même époque, les presses à imprimer nécessitaient des
procédures de configuration élaborées. Les éditeurs étaient économiquement contraints de
commander de grandes quantités pour maintenir le prix unitaire bas. Cela a entraîné de grands
inventaires, une dissuasion pour réviser un livre avec du nouveau matériel. Si le temps d'installation
est réduit, des tailles de lots plus petites seraient abordables, comme c'est maintenant couramment
pratiqué dans l'industrie de l'impression.
Le temps de réglage est défini comme le temps nécessaire pour passer du dernier article de la
commande précédente au premier bon article de la commande suivante. Lors de l'analyse des
activités de configuration, notez si l'activité est interne ou externe. Les activités de configuration
internes nécessitent un processus inactif (fermé), ce qui signifie qu'aucune commande ne peut être
exécutée pendant l'activité de configuration. Des activités de configuration externes peuvent être
effectuées pendant que le processus est opérationnel. Ce sont des activités hors ligne. Convertissez
les activités internes en activités externes dans la mesure du possible.
La configuration comprend la préparation, le remplacement, l'emplacement et le réglage
activités:
• La préparation fait référence aux tâches associées à l'obtention ou au stockage des outils ou
WIP nécessaires au processus. Par exemple, récupérer du papier d'imprimante dans le
placard, télécharger les instructions de processus sur l'ordinateur, déplacer les éléments
terminés vers l'étape suivante du processus, démarrer le logiciel dont nous avons besoin
pour traiter la commande, etc. Certaines actions appropriées pour réduire le temps associé
à la préparation comprennent : • Convertir des départements en cellules de travail
pour minimiser le temps nécessaire pour déplacer le produit fini vers l'étape suivante du
processus. •Stocker les outils et matériaux localement, tel que préconisé par les
principes 5S. • Convertir en Toujours prêt à partir. Rendez le logiciel ou les instructions
instantanément
accessibles.
Sa devise, « n'importe quelle couleur que vous voulez, tant que c'est noir », illustre
la notion de standardisation. L'approche moderne de la normalisation n'est pas que
nous devons limiter les options, mais plutôt que nous devons reconnaître les
avantages des processus simplifiés et chercher à supprimer les «cas particuliers» où
ils offrent peu de valeur au prix de temps de cycle accrus. Les points de décision et
les chemins parallèles ultérieurs sur les organigrammes fournissent une indication
des complexités du processus qui peuvent parfois être évitées. En regroupant les
pièces ou les services en familles, nous pouvons reconnaître qu'il existe des
méthodes communes qui peuvent être appliquées, simplifiant ainsi les processus et
réduisant les temps de cycle globaux. •Les outils 5S de tri et de redressement
contribuent également à réduire les déplacements
et les temps d'attente.
Bien que cela puisse être votre tendance initiale, ne limitez pas votre flux de valeur aux murs
de votre organisation. Des sommes d'argent fantastiques ont été économisées en évaluant les flux
de valeur lorsqu'ils passent du fournisseur au client, souvent en raison de la découverte de
concepts de valeur erronés ou de tentatives de réaliser des économies opérationnelles qui
diminuent la valeur client.
la condition instable pendant une période de temps spécifique doit être traitée et supprimée
pour atteindre un processus stable, qui peut ensuite être amélioré (si nécessaire) comme
indiqué cidessus.
Au niveau de l'entreprise, les données client peuvent être analysées pour établir des
relations entre la satisfaction client et les processus internes utilisés pour offrir l'expérience
client. Un outil couramment utilisé pour cette analyse est le déploiement de la fonction
qualité (QFD). Dans de nombreux cas, des versions simplifiées de ces outils sont utilisées
avec des résultats comparables. Cette identification des processus internes clés et des
métriques alimente les opérations et les projets au niveau des processus dans une stratégie
de déploiement descendante. Cette rétroaction des projets au niveau de l'entreprise dans
la définition des projets au niveau des opérations et des processus est essentielle pour
exploiter avec succès la puissance de Six Sigma.
Matrice de
corrélation
Comment (colonnes)
Matrice de
Quoi Évaluation
relation l'importance
Pondération
de
(lignes) compétitive
(intersection de la ligne et de la colonne)
Valeurs cibles
Évaluation compétitive
Pondération de l'importance
La maison de la qualité relate, dans un format graphique simple, les exigences des
clients, les caractéristiques des produits et l'analyse concurrentielle. Il est crucial que
cette matrice soit développée avec soin car elle devient la base de l'ensemble du
processus QFD. En utilisant l'approche QFD, les demandes du client sont « déployées »
dans le processus final et les exigences du produit.
Une interprétation de QFD, appelée l'approche Macabe, procède en développant
une série de quatre matrices connexes (King, 1987) : matrice de planification de produit,
matrice de déploiement de pièces, matrice de planification de processus et matrice de
planification de production. Chaque matrice est liée à la matrice précédente, comme le
montre la Fig. 15.2.
Figure 15.2 Matrice QFD pour une entreprise aérospatiale (Wahl et Bersbach, 1991).
Machine Translated by Google
3. Effectuer une analyse des produits concurrents sur le marché, que nous appelons
une analyse concurrentielle. Élaborer un plan qualité et déterminer les
caractéristiques de vente (points de vente).
4. Déterminer le degré d'importance de chaque qualité demandée.
5. Lister les éléments de qualité et faire un déploiement des éléments de qualité
graphique.
Diagrammes de
dispersion Un diagramme de dispersion est un tracé d'une variable par rapport à une
autre : la variable indépendante est affichée sur l'axe horizontal (inférieur) ; la variable
dépendante est indiquée sur l'axe vertical (latéral).
Les diagrammes de dispersion sont utilisés pour évaluer la corrélation d'une variable
avec l'autre. La prémisse est que la variable indépendante provoque un changement
dans la variable dépendante, bien que la cause et l'effet à proprement parler ne puissent
pas être prouvés avec les seules statistiques. Les nuages de points sont utilisés pour
320
Figure
15.3
Diagramme
cause
effet
de
la
classe
de
production
processus.
Réglage
excessif Souder
vague
Vague
inégale
Contam.
État
du
déflecteur
Convoyeur
vitesse
Localisation
en
multi
Fixation
appareil
de
scène
Hauteur
basse
Circuits
incohérents
aussi
Processus
Conseil
Haut
Contaminé près
de
la
lèvre
Flotteur
de
planche
sur
la
vague
Temp.
de
préchauffage
température
variable.
haut .
Oxydé
Fabrication Contaminé
Excessif
souffler
Voilé
pas
actif
Tête
inégale
Frottis
de
forage
Intervalle
de
remplacement
Sens
d'orientation
de
la
rainure
de
clavette
à
travers
la
vague Tête
basse
Erreur
d'enregistrement
Inconsistant
Flux
Placage
Conseil
Trou/
patin
Contamination
des
cartes
Masques
Manutention
Masque
Stockage
Sélection
de
l'installation
la
prise
de
Application
bande
Assemblée
Conseil La
répartition
du
poids
Emplacement
de
montage
Forme
de
prise
Dissipateur
de
chaleur
Plante
au
sol
Contaminé
Forme
Conception
installation
Plomb
coupé
et
clinch
Soudabilité
Emplacement Composants
Rapport
de
taille
Trou/
plomb
soudure
dans
le
trou
Pas
de
Machine Translated by Google
Machine Translated by Google
répondez à des questions telles que "La machine à matériaux du fournisseur A estelle meilleure
que celle du fournisseur B ?" "Estce que la durée de la formation a quelque chose à voir avec
la quantité de ferraille qu'un opérateur fait ?" et ainsi de suite.
4. Tracez les données en plaçant une marque au point correspondant à chaque paire X–
Y . Si plus d'une classification est utilisée, vous pouvez utiliser différents symboles
pour représenter chaque groupe.
Exemple de diagramme de dispersion. Le responsable du verger surveille au jour le jour le poids des pêches.
Les données sont collectées par paires comme indiqué dans le tableau 15.1, de sorte que pour chaque pêche
son poids et le nombre de jours sur l'arbre ont été enregistrés.
La variable indépendante, X, est le nombre de jours pendant lesquels le fruit a été sur
l'arbre. La variable dépendante, Y, est le poids de la pêche. Le diagramme de dispersion est
illustré à la Fig. 15.4.
•Les diagrammes de dispersion affichent différents modèles qui doivent être interprétés ;
La Fig. 15.5 fournit un guide d'interprétation du diagramme de dispersion.
•Assurezvous que la variable indépendante, X, varie sur une plage suffisamment large.
Lorsque X n'est modifié que d'une petite quantité, vous pouvez ne pas voir de
corrélation avec Y même si la corrélation existe réellement.
• Si vous faites une prédiction pour Y pour une valeur X qui se situe en dehors de la
plage que vous avez testée, sachez que la prédiction est très discutable et doit être
testée de manière approfondie. La prédiction d'une valeur Y audelà de la plage X
réellement testée s'appelle une extrapolation. •Gardez un œil
sur l'effet des variables non incluses dans l'analyse. Souvent, une variable non contrôlée
annulera l'effet de votre variable X. Il est également possible qu'une variable non
contrôlée soit à l'origine de l'effet et que vous confondiez la variable X que vous
contrôlez avec la véritable cause. Ce problème est beaucoup moins susceptible de
se produire si vous choisissez X niveaux au hasard. Nos pêches en sont un exemple.
Il est possible que n'importe quel nombre de variables ait changé
Machine Translated by Google
(Pyzdek, 1990)
5.6
Lester
5.0
4.4
75 78 81 84 87 90
Jours sur les arbres
*
Fonction de régression : y = –3,847 + 0,110 X Régression : 1 (df) 4,907 (SS) 4,907 (MS)
Coefficient de corrélation : 0,980 Résiduel : 18 (df) 0,202 (SS) 0,011 (MS)
La fonction explique 96,038 % de la variation F : 436,296
Prob F : 0,000
•S'il existe plus d'une source possible pour la variable dépendante, essayez d'utiliser
différents symboles de traçage pour chaque source. Par exemple, si le gestionnaire
du verger savait que certaines pêches ont été prélevées sur des arbres situés à
proximité d'une autoroute très fréquentée, il pourrait utiliser un symbole différent
pour ces pêches. Il pourrait trouver une interaction; c'estàdire que les pêchers des
arbres situés près de l'autoroute ont peutêtre un taux de croissance différent de
ceux des arbres situés au plus profond du verger. Cette technique est connue sous
le nom de stratification.
Machine Translated by Google
Bien qu'il soit possible de faire une analyse avancée sans tracer le diagramme de
dispersion, c'est généralement une mauvaise pratique. Cela passe à côté de l'énorme
opportunité d'apprentissage offerte par l'analyse graphique des données.
Les méthodes statistiques décrites dans cette section aident à effectuer cette analyse.
y = a + bx
où a et b sont des constantes. L'équation dit simplement que lorsque x change d'une unité,
y changera de b unités. Cette relation peut être représentée graphiquement.
12
dix
Oui 6
0
0 1 2 3 4
X
Dans ce cas, y augmente lorsque x est inférieur à 1 et diminue pour des valeurs
supérieures de x. Une grande variété de processus produisent de telles relations.
Une méthode courante pour analyser les réponses non linéaires consiste à diviser la
réponse en segments linéaires par morceaux, puis à analyser chaque élément
séparément. Par exemple, sur la Fig. 15.6, y est grossièrement linéaire et croissant sur
la plage 0 < x < 1 et grossièrement linéaire et décroissant sur la plage x > 1. Bien sûr, si
vous avez accès à un puissant logiciel statistique, non les formes linéaires peuvent être
analysées directement.
Lors de la réalisation d'une analyse de régression et de corrélation, nous pouvons
distinguer deux principaux types de variables. Un type que nous appelons variables
prédictives ou variables indépendantes ; l'autre, des variables de réponse ou des
variables dépendantes. Un prédicteur ou une variable indépendante peut soit être réglé
sur une variable souhaitée (par exemple, la température du four), soit prendre des
valeurs qui peuvent être observées mais non contrôlées (par exemple, l'humidité
ambiante extérieure). À la suite de modifications délibérément apportées ou simplement
apportées aux variables prédictives, un effet est transmis aux variables de réponse (par
exemple, la taille des grains d'un matériau composite). Nous sommes généralement
intéressés à découvrir comment les changements dans les variables prédictives
affectent les valeurs des variables de réponse. Idéalement, nous espérons qu'un petit
nombre de variables prédictives « expliqueront » presque toute la variation des variables de réponse.
En pratique, il est parfois difficile d'établir une distinction claire entre les variables
indépendantes et dépendantes. Dans de nombreux cas, cela dépend de l'objectif de
l'enquêteur. Par exemple, un ingénieur qualité peut traiter la température ambiante
comme une variable prédictive dans l'étude de la qualité de la peinture et comme la
variable de réponse dans une étude des particules de salle blanche. Cependant, les
définitions cidessus sont utiles pour planifier des études d'amélioration de la qualité.
Machine Translated by Google
12 dix
je II
dix 8
8 6
6 4
3 2
3 6 9 12 15 3 6 9 12 15
15 15
III IV
12 12
9 9
6 6
3 3
3 6 9 12 15 5 dix 15 20
Bien que l'analyse numérique des données fournisse des informations précieuses,
elle doit toujours être complétée par une analyse graphique. Les diagrammes de
dispersion sont un complément très utile à l'analyse de régression et de corrélation. Les
quatre diagrammes de dispersion assez différents de la Fig. 15.7 illustrent l'intérêt de
compléter l'analyse numérique avec des diagrammes de dispersion, car les diagrammes
de dispersion ont des paramètres statistiques communs.
En d'autres termes, bien que les diagrammes de dispersion montrent clairement
quatre processus distincts, l'analyse statistique ne le fait pas. Dans un travail de qualité,
l'analyse numérique seule ne suffit pas.
Ajustement des
moindres carrés Si toutes les données tombaient sur une ligne parfaitement droite, il
serait facile de calculer la pente et l'ordonnée à partir de deux points. Cependant, la
situation se complique lorsqu'il y a « éparpillement » autour de la ligne. Autrement dit,
pour une valeur donnée de x, plusieurs valeurs de y apparaissent. Lorsque cela se
produit, nous avons une erreur dans le modèle. La figure 15.8 illustre le concept d'erreur.
Machine Translated by Google
25
Doubler
15
Oui
Etc.
dix
Déviation #2
Déviation #3
5
Déviation #1
0
0 2 4 6 8 dix
X
y = a + bx + e
Lorsqu'une erreur se produit, comme c'est le cas dans presque toutes les situations du
"monde réel", il existe de nombreuses lignes possibles qui pourraient être utilisées pour
modéliser les données. Il faut trouver une méthode qui fournisse, dans un certain sens, une
équation « la mieux adaptée » à ces situations quotidiennes. Les statisticiens ont développé
un grand nombre de ces méthodes. La méthode la plus couramment utilisée trouve la ligne
droite qui minimise la somme des carrés des erreurs pour tous les points de données. Cette
méthode est connue sous le nom de droite de meilleur ajustement des «moindres carrés».
'
En d'autres termes, l'équation de droite la mieux ajustée des moindres carrés est yi = a +
bx, où a et b sont trouvés de sorte que la somme des écarts au carré par rapport à la droite
soit minimisée. La plupart des feuilles de calcul et des calculatrices scientifiques ont une
capacité intégrée pour calculer a et b.
Cette discussion montre comment une seule variable indépendante est utilisée pour
modéliser la réponse d'une variable dépendante. C'est ce qu'on appelle la régression
linéaire simple. Il est également possible de modéliser la variable dépendante en termes de
deux variables indépendantes ou plus ; c'est ce qu'on appelle la régression linéaire multiple.
Machine Translated by Google
y = b0 + b1 x1 + b2 x2 + e
Carré R ajusté. Une mesure de R2 "ajustée pour les degrés de liberté", qui est
nécessaire lorsqu'il y a plus d'une variable indépendante.
Erreur standard. L'écart type des résidus. Le résidu est la différence entre la valeur
observée de y et la valeur prédite y' basée sur l'équation de régression.
Les colonnes restantes testent les hypothèses selon lesquelles chaque coefficient du
modèle est en fait égal à zéro.
Colonne d'erreur standard. Donne les écarts types de chaque terme, c'estàdire l'écart
type de l'ordonnée à l'origine = 0,565, etc. t Colonne Stat. Le
coefficient divisé par la statistique t ; c'estàdire qu'il montre de combien d'écarts types
le coefficient observé est à partir de zéro.
Valeur P. Affiche la zone dans la queue d'une distribution t audelà de la valeur t
calculée . Pour la plupart des travaux expérimentaux, une valeur P inférieure à 0,05 est
acceptée comme une indication que le coefficient est significativement différent
à partir de zéro.
1. Dans l'ensemble
Parcelle globale des résidus. Lorsque les hypothèses sont correctes, nous
nous attendons à voir des résidus qui suivent une distribution
approximativement normale avec une moyenne nulle. Un tracé global des
résidus, tel qu'un histogramme, peut être utilisé pour évaluer cela. Il est
souvent utile de tracer des résidus standardisés plutôt que des résidus réels.
Les résidus standardisés sont obtenus en divisant chaque résidu par l'erreur
type ; le résultat est le résidu exprimé en écarts types. Les résidus
standardisés doivent ensuite être tracés sur un graphique de probabilité normale pour vérifier
Lors de l'exécution des trois autres types d'analyse de la liste, l'expérimentateur
doit rechercher tout caractère non aléatoire dans les modèles. La figure 15.10 illustre
certains modèles courants de comportement des résidus.
Le modèle #1 est l'impression générale qui sera transmise lorsque le modèle
s'adapte de manière satisfaisante. Le motif #2 indique que la taille du résidu augmente
en fonction du temps ou de la valeur de la variable indépendante.
Cela suggère la nécessité d'effectuer une transformation des valeurs de y avant
d'effectuer l'analyse de régression. Le modèle #3 indique que l'effet linéaire de la
variable indépendante n'a pas été supprimé, peutêtre en raison d'une erreur de
calcul. Le motif #4 apparaît lorsqu'un modèle linéaire est ajusté à des données
curvilignes. La solution consiste à effectuer une transformation linéarisante des y ou
à ajuster le modèle non linéaire approprié.
En plus de ce qui précède, l'analyste doit toujours apporter sa connaissance du
processus pour résoudre le problème. Les motifs peuvent devenir
Machine Translated by Google
évident lorsque les résidus sont liés à des lois scientifiques connues, même s'ils ne sont
pas évidents en utilisant uniquement des règles statistiques. Cela est particulièrement vrai
lors de l'analyse des valeurs aberrantes, c'estàdire des résidus standardisés supérieurs
à 2,5 environ.
varié à la fois pour estimer son effet. Le tableau 15.2 répertorie trois facteurs, avec deux
paramètres possibles pour chacun :
De même, l'effet d'un type de réponse personnalisé peut être estimé en comparant
l'essai 3 à l'essai 1 ; l'effet de la méthode de réponse est estimé en comparant l'essai 4 à
l'essai 1. De cette façon, l'effet de la réponse personnalisée est estimé comme une
diminution de la satisfaction client de 7 unités, et l'effet du téléphone par rapport à l'email
comme une diminution de 8 unités dans le score de satisfaction client.
Sur la base de ces observations, la satisfaction client peut être maximisée en fixant les
facteurs suivants : temps de cycle : faible ; réponse personnalisée : générique ; type de
réponse : email.
Le problème avec cette expérience traditionnelle d'un facteur à la fois est qu'elle ignore
l'effet des interactions. La figure 15.11 affiche les résultats d'une expérience conçue du
même processus. Vous pouvez voir qu'au paramètre de temps de cycle élevé (indiqué par
la ligne intitulée 330 000), le score de satisfaction de 21,0 a été observé lorsque le type de
réponse est défini sur la condition générique (pas de réponse personnelle). C'est l'essai 2 ci
dessus, et il est encerclé sur le graphique. L'essai 3 est indiqué sur la ligne étiquetée 210
000 à la condition de réponse personnelle oui .
Temps de
37,0 cycle 330.000
33,0
satisfaction
signifie
score
de
Le
29,0 210.000
25,0
21.0
Non Oui
Réponse personnelle
Figure 15.11 Résultats d'une expérience conçue pour estimer l'interaction entre la réponse
personnelle et les facteurs de temps de cycle.
Lorsque les interactions sont ignorées, des résultats aléatoires peuvent être obtenus
à partir d'efforts d'amélioration :
•Un facteur peut sembler sans importance si les facteurs en interaction ne sont pas
modifiés en même temps, comme le montre l'exemple.
• Un effort d'amélioration de processus peut n'atteindre les résultats souhaités que
pendant un certain temps (tant que les facteurs en interaction restent constants).
Si nous ne modifions pas les bons facteurs, il semble qu'une amélioration ait été
apportée, mais elle disparaît ensuite. Cela peut se produire lorsqu'il y a un autre
facteur présent qui n'a pas été inclus dans l'expérience. •L'effet d'un facteur
peut être minimisé en réduisant la variation d'un autre. Il s'agit de l'approche Taguchi
de la conception robuste, et peut être vue en regardant l'exemple précédent d'une
manière légèrement différente. Étant donné que l'effet de la réponse personnalisée
était négligeable à des temps de cycle de réponse faibles, si le temps de cycle
de réponse est maintenu près de son réglage bas, les modifications de la réponse
personnalisée ne feraient pas beaucoup de différence.
Machine Translated by Google
Machine Translated by Google
CHAPITRE 16
•Proposer une ou plusieurs solutions à sponsoriser ; quantifier les avantages de chacun ; parvenir à
un consensus sur la solution et la mettre en œuvre. • Définir
L'étape Améliorer implique le déploiement de méthodes pour combler l'écart entre l'état actuel du
processus et l'état souhaité. Les méthodes mises en œuvre doivent également être vérifiées à cette étape
pour s'assurer que les effets souhaités sont atteints et peuvent être maintenus.
Cette étape est celle où le caoutchouc rencontre la route, car elle définit les améliorations et les
réductions de coûts qui soutiennent le programme. En tant que tel, c'est généralement le point de départ
ou d'arrêt, obligeant l'équipe à considérer l'inconsidérable et à devenir de véritables agents de changement.
Le soutien de la direction à ce stade est essentiel.
Au niveau de l'entreprise, des changements à l'échelle du système en résultent. Cela pourrait inclure
des changements de politique, le déploiement de mécanismes de rétroaction des clients, des modifications
des systèmes comptables pour suivre les coûts de qualité et les avantages des améliorations, la mise en
œuvre de systèmes informatisés pour gérer les commandes, et même l'élimination de systèmes compliqués
qui promettaient une amélioration mais offraient des temps de cycle accrus et/ ou des frais.
Au niveau du processus, des expériences conçues sont menées pour déterminer les réglages des
facteurs de processus qui améliorent la capacité du processus, entraînant une réduction des défauts et
des rendements accrus. Les processus sont repensés, parfois même supprimés, à la recherche
d'améliorations des performances en termes de qualité, de coût et de planification.
À tous les niveaux, les améliorations les meilleures et les plus durables sont obtenues lorsque des
facteurs sont identifiés qui prédisent les résultats futurs. Ces facteurs critiques peuvent alors être contrôlés
pour prévenir les problèmes avant qu'ils ne surviennent.
Les temps de cycle peuvent être améliorés en réduisant les mouvements de personnel
ou de matériel, affectant l'espace physique dans lequel le processus se déroule : les bureaux
peuvent être repensés, les départements déplacés ou réaffectés, voire des usines entières
rapprochées de leurs clients. L'analyse des mouvements est facilitée par l'utilisation de
diagrammes spaghetti. L'application des outils 5S crée les conditions nécessaires pour
réduire les mouvements de matériel et de personnel. Les résultats de la réduction de l'espace
incluent :
• Réduction des frais généraux et réduction du besoin de nouvelles installations. Comme l'espace
est utilisé plus efficacement, les frais généraux sont réduits, tout comme le besoin de nouvelles
installations à mesure que de nouveaux équipements sont mis en place.
La réduction des mouvements inutiles intègre un concept Lean connu sous le nom de 5S,
qui vient des mots japonais utilisés pour créer l'organisation et la propreté sur le lieu de travail
[Seiri (organisation), Sieton (propreté), Seiso (pureté), Seiketsu (propreté), Shitsuke
(discipline )]. Les 5S traditionnels ont été traduits dans les 5S suivants, qui sont peutêtre de
meilleures définitions pour les organisations anglophones (ReVelle, 2000) :
l'emplacement ou l'ajustement (tel que discuté dans l'étape d'analyse, chap. 15) fournira une contribution
précieuse aux activités de l'étape d'amélioration. Les conditions préalables pour que le chargement de
niveau soit complètement réussi incluent :
• Normalisation des instructions de travail et formation polyvalente, afin que les employés puissent
être déplacés pour répondre à une demande accrue ou résoudre des problèmes de processus.
Une stratégie clé pour éliminer les barrières et créer un flux continu consiste à reconcevoir le
flux de processus dans les cellules de travail des produits. Dans les cellules de travail produit,
toutes les fonctions travaillent ensemble dans une seule cellule soudée, plutôt que dans
différents départements. Ces cellules peuvent être définies par produit ou par familles de
produits similaires.
Les cellules de produit diminuent le mouvement physique des marchandises (qu'il s'agisse d'un
produit physique, de documents ou même d'idées). Cela réduit non seulement le gaspillage
d'attente, mais permet également aux personnes effectuant chacune des tâches d'avoir une
visibilité sur les tâches, ainsi que sur les ralentissements, les obstacles ou les inefficacités qui
se produisent dans les étapes précédentes ou suivantes. Des instructions de travail
standardisées, avec des coûts de processus et des indicateurs de mesure, sont affichées bien
en vue. Des indicateurs d'état sont utilisés pour que tous les travailleurs puissent facilement voir
si des ralentissements se produisent. Les instructions de travail sont standardisées afin que des
collègues puissent remplacer un travailleur absent un jour donné. Poka yoke (antierreur) est
• Transparence. Les travailleurs doivent être informés dès que possible des changements dans la
demande ou des problèmes de processus. Créer une visibilité des travaux en cours (WIP).
Lorsque nous voyons où cela se produit principalement, nous avons identifié des goulots
d'étranglement dans le processus. En forçant l'élimination de cet inventaire, nous pouvons
déterminer et résoudre les causes profondes de l'accumulation des stocks.
Enfin, le WIP est réduit lorsque nous pouvons passer de processus par lots à un flux continu d'unités
de produit ou de service individuelles. "Commencer un élément, terminer un élément" est le mantra. Nous
allons maintenant examiner certains des problèmes associés aux lots et les raisons pour lesquelles nous
traitons par lots, afin que nous puissions comprendre comment s'éloigner de cette pratique.
Une approche en quatre étapes est recommandée pour réduire les temps de configuration (George,
2002) :
1. Classez chaque étape de configuration comme interne ou externe. Les étapes internes sont
celles effectuées pendant que le processus est inactif. Les étapes externes sont effectuées
pendant que le processus est en cours d'exécution.
2. Convertissez les étapes internes en étapes externes. Nous voulons réduire le temps pendant
lequel le processus est non opérationnel, nous devons donc réduire le temps associé aux
étapes internes. Le moyen le plus rapide de le faire est de suivre autant de ces étapes que
possible pendant que le processus est opérationnel.
Machine Translated by Google
Par exemple, si nous pouvons collecter l'argent des clients pendant la cuisson de leurs
hamburgers, le temps de cycle total est réduit.
3. Réduisez le temps pour les étapes internes restantes. Certaines étapes internes ne
peuvent pas être effectuées pendant que le processus est opérationnel. Nous voulons
maintenant nous concentrer sur la réduction du temps requis pour terminer les étapes
qui nécessitent de retarder le processus. Par exemple, étant donné que les hamburgers
ne peuvent pas être cuits tant que nous ne savons pas ce que le client veut commander,
nous essaierons de réduire le temps nécessaire pour passer la commande du client.
4. Éliminez les ajustements. Les ajustements, comme indiqué dans l'étape d'analyse,
peuvent être réduits grâce à un contrôle efficace du processus. Des expériences
conçues peuvent être utilisées pour comprendre les causes de la variation du processus
qui précèdent l'ajustement.
Il existe trois grandes catégories d'erreurs humaines : les erreurs par inadvertance,
erreurs techniques et erreurs volontaires.
Erreurs involontaires De
nombreuses erreurs humaines se produisent en raison d'un manque d'attention. Les gens sont connus
pour leur propension à commettre ce type d'erreur. Les erreurs involontaires ont certaines caractéristiques :
•Il n'y a généralement aucune connaissance préalable qu'une erreur est imminente. •L'incidence
Des exemples d'erreurs involontaires ne sont pas difficiles à trouver. C'est le type d'erreur que nous
commettons tous dans la vie de tous les jours lorsque nous constatons une erreur dans l'équilibrage du
chéquier, ratons un virage sur un itinéraire fréquemment parcouru, composons un mauvais numéro au
téléphone ou oublions de payer une facture. À la maison, ces choses peuvent être négligées, mais dans
les affaires, elles peuvent avoir des coûts importants et contribuer au gaspillage des ressources.
Prévenir les erreurs involontaires peut sembler une tâche impossible. En effet, ces erreurs sont parmi
les plus difficiles à éliminer. À mesure que le taux d'erreur devient petit, l'effort d'amélioration devient plus
difficile. Pourtant, dans la plupart des cas, il est possible d'apporter des améliorations substantielles de
manière économique. Parfois, il est même possible d'éliminer complètement les erreurs.
Une façon de traiter les erreurs par inadvertance est le détrompage, également connu sous le nom
de poka yoke. Le détrompage consiste à modifier la conception d'un processus ou d'un produit pour
rendre la commission d'une erreur humaine particulière
Machine Translated by Google
Erreurs techniques
Comme exemple d'erreurs techniques, considérez le problème réel suivant avec les
carters de boîte de vitesses. Les boîtiers étaient des pièces moulées en fonte grise et le
problème était des fissures. Le fournisseur a été mis au courant du problème et son équipe
de métallurgistes et d'ingénieurs a travaillé longuement et durement sur le problème, mais
en vain. Finalement, en désespoir de cause, le client s'est assis avec le fournisseur pour
mettre sur pied un plan « de dernière minute ». Si le plan échouait, le client serait obligé
d'essayer une source alternative pour le casting.
Comme on pouvait s'y attendre, le plan était grandiose. L'équipe a identifié de
nombreuses variables importantes dans le produit, le processus et les matières premières.
Chaque variable a été classée comme une « variable de contrôle », qui serait
Machine Translated by Google
maintenue constante, ou une "variable expérimentale", qui serait modifiée d'une manière
prescrite. Les résultats de l'expérience devaient être analysés en utilisant tout le muscle d'un
important progiciel d'analyse statistique sur ordinateur central. Tous les membres de l'équipe
étaient convaincus que rien n'avait été laissé au hasard.
Cet exemple illustre une catégorie d'erreur humaine différente des erreurs par
inadvertance décrites précédemment. Les erreurs techniques partagent certaines
caractéristiques communes :
La résolution des erreurs techniques implique les mêmes approches de base que la
résolution des erreurs par inadvertance, à savoir l'automatisation, le détrompage et
l'ingénierie du facteur humain. En attendant, contrairement aux erreurs involontaires, les
erreurs techniques peuvent être causées par un simple manque de compréhension qui peut
être corrigé en développant de meilleures instructions et une meilleure formation.
Un autre exemple concret peut être utile. Un ensemble électromécanique s'est soudainement
mis à tomber en panne sur du matériel agricole. L'examen des pannes a révélé que le fil avait été
rompu à l'intérieur de l'isolant. Cependant, la continuité des assemblages a été vérifiée à 100 % après
l'installation du fil et le circuit ouvert aurait dû être découvert par le test. Après une longue et difficile
enquête, aucune solution n'avait été trouvée. Cependant, le problème avait disparu et ne revenait
jamais.
Environ un an plus tard, l'ingénieur qualité se trouvait à une fête d'entreprise lorsqu'un travailleur
l'a approché. Le travailleur a déclaré qu'il connaissait la réponse au désormais tristement célèbre
«mystère du fil brisé», comme on l'appelait maintenant. Le problème a été causé, atil dit, lorsqu'un
employé stagiaire nouvellement embauché a reçu son préavis de deux semaines. L'employé a décidé
de se venger en sabotant le produit. Il l'a fait en cassant soigneusement le fil, mais pas l'isolant, puis
en poussant les sections cassées ensemble pour que l'assemblage réussisse le test. Cependant, sur
le terrain, la rupture se séparerait même, entraînant un échec. Plus tard, l'ingénieur qualité a vérifié
les dates de fabrication et a constaté que chaque assemblage défectueux avait été effectué au
cours des deux semaines précédant la date de fin de contrat du saboteur.
Dans la plupart des cas, le spécialiste de la sécurité est bien mieux équipé et formé pour traiter
ce type d'erreur que le personnel de contrôle qualité ou d'ingénierie. Dans les cas graves, des
accusations criminelles peuvent être portées à la suite du sabotage. Si le produit est fabriqué dans le
cadre d'un contrat gouvernemental, des agences fédérales peuvent être appelées. Heureusement,
les erreurs délibérées sont extrêmement rares.
Ils ne doivent être considérés comme une possibilité qu'après que toutes les autres explications ont
été étudiées et exclues.
2. La carte de processus est utilisée pour définir les étapes et les relations fonctionnelles pour
le nouveau processus.
Machine Translated by Google
3. Une analyse SIPOC appropriée (telle que discutée dans l'étape Définir, Chap. 13) garantit une
compréhension approfondie du processus et des sousprocessus.
4. L'étape 4 est peutêtre le véritable début du processus AMDE dans les projets Six Sigma DMAIC,
puisque les trois étapes précédentes ont déjà été accomplies et servent d'"intrants" à l'étape
Améliorer. Dans cette étape, nous définissons la fonction du processus. La fonction fournit le
but de l'étape. Chaque étape doit avoir une ou plusieurs fonctions, étant donné que l'étape est
nécessaire pour satisfaire une exigence interne ou externe. Pour identifier les fonctions de
l'étape du processus, il peut être utile de considérer les ramifications de la suppression de
l'étape. Par exemple, dans un processus de vente, l'étape de processus "Saisir le numéro
d'identification du produit pour chaque article acheté" fournit la fonction "Identifier les numéros
d'articles qui appartiennent aux produits achetés afin qu'ils soient tous inclus dans la livraison".
5. Pour chaque fonction, identifiez le mode de défaillance et son effet : qu'estce qui pourrait mal
tourner ? Qu'estce que le client pourrait ne pas aimer ? Par exemple, pour la fonction "Identifier
les numéros d'articles qui appartiennent aux produits achetés afin qu'ils soient tous inclus dans
la livraison", les modes d'échec peuvent être "ID de produit mal saisi" et "Numéros d'articles
mal définis pour les lots de produits". ” Le deuxième mode de défaillance fait référence aux
produits vendus sous forme d'ensembles. Un numéro d'article unique est utilisé pour l'ensemble
afin que les frais appropriés soient appliqués pour l'ensemble (réduits des prix par article), mais
les étapes de processus suivantes (et les processus suivants) nécessitent les numéros d'article
corrects pour chaque pièce (comme pour vérifier niveaux d'inventaire ou remplir la commande
à partir de l'inventaire).
6. Définissez la gravité de chacun des modes de défaillance. Le tableau 16.1 fournit un bon moyen
d'identifier la gravité d'un effet de défaillance donné. Dans l'exemple donné, le mode d'échec
de la saisie erronée de l'ID de produit, avec pour effet d'expédier le mauvais produit, se voit
attribuer une gravité de 6. Dans le tableau 16.1, la gravité 6 est décrite comme « Le client se
plaindra. Réparation ou retour probable. Augmentation des coûts internes. Certes, la définition
d'un niveau de gravité est subjective. Une sévérité de 5 ou 7 peut sembler raisonnable dans
cet exemple. Il n'y a pas de « bonne » réponse ; cependant, la cohérence entre les analyses
est importante pour établir des priorités significatives.
7. Définir la vraisemblance (ou la probabilité) d'occurrence. Le tableau 16.1 fournit des descriptions
utiles des niveaux d'occurrence de 1 à 10.
Le tableau 16.2 fournit une définition un peu meilleure, telle que développée par l'Automotive
Industry Action Group (AIAG) sur la base de la capacité des processus et des taux de défauts.
Dans l'exemple, le mode d'échec de la saisie erronée de l'ID de produit, avec pour effet
d'expédier le mauvais produit, se voit attribuer un niveau d'occurrence de 5.
Machine Translated by Google
(0 < p ≤ 0,01)
3 Le client deviendra Faible sans papiers Faible probabilité d'atteindre le client
irrité à réduit taux d'échec sans être détecté
performance (0,01 < p ≤ 0,05)
4 Marginale. Insatisfaction Les pannes surviennent à partir de Susceptible d'être détecté avant
des clients en raison de de temps en temps d'atteindre le client (0,05 < p
performances réduites ≤ 0,20)
5 Clients Documenté Peut être détecté avant d'atteindre le client
la productivité est réduite échec modéré
taux (0,20 < p ≤ 0,50)
6 Le client va Sans papiers Peu susceptible d'être détecté avant
se plaindre. Réparation échec modéré d'atteindre le client (0,50 < p
ou retour probable. taux ≤ 0,70)
Augmentation des coûts
internes (rebut, reprise, etc.)
7 Critique. Réduit Taux d'échec élevé Très peu susceptible d'être détecté avant
fidélité du consommateur. documenté d'atteindre le client (0,70 < p
Opérations internes ≤ 0,90)
impactées Perte totale
8 du goodwill clients. Taux d'échec élevé non Faible chance de détection
documenté (0,90 < p ≤ 0,95)
Opérations internes
perturbées
9 Sécurité des clients ou des Défaillances courantes Chance de détection extrêmement faible (0,95
employés compromise. < p ≤ 0,99)
Conformité réglementaire
douteuse
dix Catastrophique. Les échecs se Presque certain que la panne ne sera pas
Client ou employé mis en produisent presque toujours détectée
danger sans (p ≈ 1)
avertissement. Violation
de la loi ou de la réglementation
1/3 0,33 9
Télécommande
< 1/150 000 > 1,67 1
(AIAG, 1995)
descriptions utiles des niveaux de détection de 1 à 10. Dans l'exemple, le mode d'échec de la
saisie erronée de l'ID de produit, avec pour effet d'expédier le mauvais produit, se voit attribuer
un niveau de détectabilité de 4, une détection probable avant d'atteindre le client . Ceci est
basé sur la méthode de détection qui a été mise en œuvre à partir des améliorations de
processus passées : le comptable compare le bon de commande avec le bon de commande au
fur et à mesure que la facture est créée pour l'expédition.
9. Calculez le numéro de priorité du risque (RPN) en multipliant les niveaux de gravité, d'occurrence
et de détectabilité. Dans l'exemple, le numéro de priorité du risque est calculé en multipliant 6
(la gravité) par 5 (le niveau d'occurrence) par 4 (le niveau de détection), ce qui donne un RPN
de 120.
Le numéro de priorité du risque ira de 1 à 1000, les nombres plus grands représentant des risques
plus élevés. Les modes de défaillance avec un RPN plus élevé doivent être prioritaires pour l'étape
d'amélioration du DMAIC.
Certaines organisations utilisent des valeurs seuils audessus desquelles des actions préventives
doivent être entreprises. Par exemple, l'organisation peut exiger une amélioration pour tout RPN supérieur
à 120. La réduction du RPN nécessite une réduction des niveaux de gravité, d'occurrence et/ou de
détectabilité associés au mode de défaillance. En règle générale:
CHAPITRE 17
Étape de contrôle/vérification
Machine Translated by Google
Machine Translated by Google
351
Machine Translated by Google
Le succès engendre le succès. Les sites Web internes, les bulletins d'information de l'entreprise et les
forums Black Belt sont des moyens efficaces de partager ces informations.
Une autre partie importante de la synthèse de l'équipe est la reconnaissance de leurs efforts.
de la performance d'une équipe implique les mêmes principes que l'évaluation de la performance en
général. Souvent, la performance de l'équipe dans l'atteinte des buts et objectifs du projet est un aspect
critique de l'évaluation.
Cependant, si l'atteinte de l'objectif est le seul critère de succès, la direction peut avoir du mal à recruter
des membres de l'équipe pour autre chose que les projets slam dunk de l'avenir. Au contraire, les
équipes doivent être félicitées pour leurs efforts, en supposant que leurs efforts étaient louables, même
lorsque ces efforts ne parviennent pas à atteindre les objectifs énoncés.
Les mesures de performance se concentrent généralement sur les tâches du groupe, plutôt que sur
les problèmes internes du groupe. En règle générale, les mesures de performance financière montrent
un taux de récupération compris entre 2:1 et 8:1 sur les projets d'équipe. Voici quelques exemples de
mesures de rendement tangibles :
• Productivité •
Qualité •
Temps de cycle •
Griefs
•Service
•Chiffre d'affaires
• Licenciements
De nombreux actifs incorporels peuvent également être mesurés. Voici quelques exemples
d'intangibles touchés par les équipes :
La performance du processus d'équipe doit également être mesurée. Les taux d'échec des projets
doivent faire l'objet d'un suivi attentif. Le tableau Ap peut être utilisé pour évaluer les causes de variation
dans la proportion de projets d'équipe qui réussissent.
L'analyse des défaillances doit être rigoureusement menée.
Machine Translated by Google
• Dirigeants formés
•Pourcentage de bénévolat
abandonnés •Projets
•Amélioration de la productivité
•Amélioration de l'environnement
• Équipes inactives
• Amélioration de la qualité du
travail • Amélioration du
Reconnaissance et récompense La
reconnaissance est une forme de motivation des employés dans laquelle l'entreprise identifie et
remercie les employés qui ont apporté une contribution positive au succès de l'entreprise. Dans une
entreprise idéale, la motivation découle de la fierté du travail des employés. Lorsque les employés
sont habilités par la direction à faire leur travail et à produire un produit ou un service d'excellente
qualité, ils seront motivés.
La raison pour laquelle les systèmes de reconnaissance sont importants n'est pas qu'ils
améliorent le travail en fournissant des incitations à la réussite. Au contraire, ils font une déclaration
sur ce qui est important pour l'entreprise. L'analyse du système de reconnaissance des employés
d'une entreprise fournit un aperçu puissant des valeurs de l'entreprise en action. Ce sont ces
valeurs qui déterminent réellement le comportement des employés. Elles ne correspondent pas
nécessairement aux valeurs déclarées par la direction. Par exemple, une entreprise qui prétend
valoriser la satisfaction client mais ne reconnaît que les réalisations commerciales n'a probablement
pas la satisfaction client comme l'une de ses valeurs en action.
1.Certaines personnes (mais pas toutes) aiment être reconnues devant leur
collègues.
2. La reconnaissance publique communique un message à tous les employés sur les priorités
et la fonction de l'organisation.
Machine Translated by Google
La forme de reconnaissance peut aller d'une tape dans le dos à un petit cadeau en passant par une
somme d'argent substantielle. Cependant, lorsque des récompenses en espèces substantielles
1. Cela suggère que plusieurs priorités majeures se disputent l'attention de l'employé, de sorte
qu'une importante somme d'argent est nécessaire pour contrôler le choix de l'employé.
Carder et Clark (1992) énumèrent les lignes directrices et observations suivantes concernant la
reconnaissance :
• La reconnaissance n'est pas une méthode par laquelle la direction peut manipuler les employés.
Si les travailleurs n'effectuent pas certains types de tâches, il peut être inapproprié d'établir
un programme de reconnaissance pour augmenter la priorité de ces tâches. La reconnaissance
ne doit pas être utilisée pour amener les travailleurs à faire quelque chose qu'ils ne font pas
actuellement en raison de messages contradictoires de la direction. Une approche plus
efficace consiste pour la direction à examiner d'abord le système actuel de priorités. Ce n'est
qu'en travaillant sur le système que la direction peut aider à résoudre le conflit.
• La reconnaissance n'est pas une rémunération. Dans ce cas, la récompense doit représenter
une partie importante de la rémunération régulière de l'employé pour avoir un impact
significatif. La reconnaissance et la rémunération diffèrent de diverses manières : •Les
niveaux de
rémunération doivent être basés sur des considérations à long terme telles que l'ancienneté
de service, l'éducation, les compétences et le niveau de responsabilité de l'employé. La
reconnaissance est fondée sur les réalisations particulières d'individus ou de groupes. •
La reconnaissance est flexible. Il est pratiquement
impossible de réduire les niveaux de rémunération une fois qu'ils sont fixés, et il est difficile
et coûteux de modifier les régimes de rémunération. •La reconnaissance est plus
immédiate. Il peut être donné en temps
opportun et donc se rapporter à des réalisations spécifiques. •La reconnaissance est
personnelle. Il représente un contact direct et personnel entre
l'employé et le gestionnaire.
• La reconnaissance doit être personnelle. La reconnaissance ne devrait pas être effectuée d'une
manière qui implique que les personnes les plus importantes (les managers) donnent quelque
chose aux personnes les moins importantes (les travailleurs).
• Le renforcement positif n'est pas toujours un bon modèle de reconnaissance. Ce n'est pas
parce que le gestionnaire utilise un certain critère comportemental pour
Machine Translated by Google
fournir une reconnaissance, cela ne signifie pas que le destinataire percevra la même
relation entre le comportement et la reconnaissance. • Les employés ne doivent pas
reconnaissance doit être accordée pour les efforts, pas seulement pour l'atteinte des objectifs.
Selon Imai, un gestionnaire qui comprend qu'une grande variété de comportements sont
essentiels à l'entreprise s'intéressera aux critères de discipline, de gestion du temps, de
développement des compétences, de participation, de moral et de communication, ainsi
qu'à la production de revenus directs.
Pour être en mesure d'utiliser efficacement la reconnaissance pour atteindre les objectifs
commerciaux, les gestionnaires doivent développer la capacité de mesurer et de
reconnaître ces réalisations de processus.
les effets des récompenses, que les personnes qui reçoivent les récompenses ainsi que celles qui
les distribuent souffrent d'une perte d'incitation ce n'est pas le but de la
exercer!
Plutôt que de fournir des solutions de livre de cuisine au problème des récompenses et des
incitations, Kohn propose quelques lignes directrices simples à prendre en compte lors de la
conception de systèmes de récompense.
3. Créer les conditions d'une motivation authentique. L'argent ne remplace pas la vraie chose
un travail intéressant. Voici quelques principes à utiliser pour rendre le travail plus
intéressant : a. Concevoir des emplois
intéressants. Donnez aux équipes des projets qui sont intrinsèquement motivants, par
exemple, des projets significatifs, stimulants et réalisables.
c. Offrir la liberté. Faites confiance aux gens pour faire les bons choix. Encourager
eux quand ils font des erreurs.
Formation
Lorsque des plans d'amélioration de la qualité sont mis en œuvre, la nature du travail effectué change.
Les personnes impliquées ou impactées par la nouvelle approche doivent recevoir deux types de
formation différents : conceptuel et basé sur les tâches.
Dans le jargon, les employés opérationnels sont formés en tant que ceintures vertes aux outils
de base de la qualité, y compris (le plus important) le SPC, qui fournit un moyen de comprendre
la nature systématique de la variation des processus.
Lors de la réintégration des emplois, les fonctions attendues de chaque salarié changent,
souvent radicalement. La formation axée sur les tâches est nécessaire pour aider les employés
à acquérir et à maintenir de nouvelles compétences et compétences. Les employés se voient
confier de nouvelles responsabilités en matière d'autocontrôle de la qualité des processus. Pour
gérer efficacement ces nouvelles responsabilités, les employés doivent apprendre à utiliser
l'information comme ils ne l'ont jamais fait auparavant. Souvent, les employés sont appelés à
participer à la conception de nouveaux systèmes d'information, à saisir des données, à utiliser
des terminaux informatiques pour accéder à des informations, à lire des sorties informatiques,
à faire des présentations de gestion, etc. Ces compétences doivent être acquises par la formation et l'expérience.
Les plans qualité qui n'incluent pas une formation adéquate des employés sont monnaie
courante et constituent l'une des principales causes du taux élevé d'échec des plans qualité.
Formation
professionnelle La formation professionnelle est le véhicule par lequel se déroule la grande
majorité de la formation. La formation professionnelle consiste à affecter les apprenants à
travailler avec un employé plus expérimenté, soit un superviseur, un pair ou un chef d'équipe,
pour apprendre des tâches spécifiques sur le lieu de travail réel. L'apprenant est généralement
un nouvel employé qui a été récemment embauché, muté ou promu au poste et qui n'a pas les
connaissances et les compétences nécessaires pour exécuter certaines composantes de son
travail. L'employé expérimenté démontre et discute normalement de nouveaux domaines de
connaissances et de compétences, puis offre des opportunités de pratique et de rétroaction. Il
existe trois méthodes courantes utilisées dans la formation professionnelle (Nolan, 1996):
2. FCE non structurée. OJT non structuré signifie souvent couler ou nager.
La plupart des activités de la FCE non structurée n'ont pas été réfléchies et sont
réalisées de manière désordonnée. Une méthode courante de FCE non structurée
consiste à demander à l'apprenant de « s'asseoir » avec un autre employé ou de
« suivre l'employé » pendant quelques jours pour voir ce que l'employé fait et comment
il le fait. Cette technique de « sitandsee » conduit souvent l'apprenant à apprendre
autant par essais et erreurs que par n'importe quelle instruction donnée par les plus
expérimentés.
Machine Translated by Google
3. L'apprenant est souvent imposé à l'employé expérimenté sans préavis et est considéré
comme un obstacle, car ce temps de formation interrompt la charge de travail normale
et les performances de l'employé expérimenté. Le principal inconvénient de l'approche
non structurée est que les objectifs, les attentes et les résultats ne sont pas définis à
l'avance et, par conséquent, les résultats sont imprévisibles.
1. Analyse des besoins. Le besoin est établi au cours du cycle DMAIC du projet
d'amélioration, y compris l'évaluation des connaissances, des compétences et des
capacités (KSA) du personnel de processus, ainsi que des attitudes.
2. Analyse de l'emploi. L'analyse des tâches fait partie des processus de conception des
tâches et de sélection des employés. Les exigences du poste sont adaptées aux
connaissances, compétences et capacités de l'employé au cours du processus de
sélection. Lors de la conception de programmes structurés de FCE, les caractéristiques
des stagiaires doivent être examinées afin de cibler la FCE avec précision et de
développer du matériel pédagogique efficace ; par exemple, ce qui fonctionne pour
les nouveaux employés peut ne pas être le meilleur pour les transferts. Les stagiaires
doivent remplir des sondages sur le profil des employés afin de fournir au concepteur
pédagogique les informations nécessaires pour personnaliser la formation en fonction
des besoins de chaque employé.
3. Conception du cours. Cette étape produira un plan de formation de cours qui servira
de modèle à utiliser pour construire des supports de formation. Le plan de formation
du cours doit inclure : ,
• Tests critères •
Présentation
Machine Translated by Google
Jeux pédagogiques. Un jeu pédagogique est une activité délibérément conçue pour
produire certains résultats d'apprentissage. Les jeux pédagogiques incorporent cinq
caractéristiques (Thiagarajan, 1996) :
2. Contrôle. Les jeux sont régis par des règles qui précisent comment jouer les
jeu.
3. Fermeture. Les jeux ont une règle de fin, qui peut être une limite de temps,
l'achèvement d'un ensemble de tâches, l'élimination de joueurs du jeu, etc. Les
jeux éducatifs les plus efficaces utilisent plusieurs critères de clôture et permettent
à différents joueurs ou équipes de gagner selon différentes dimensions.
4. artifice. Les jeux contiennent des éléments, tels que le hasard, pour s'assurer que
le jeu conserve un caractère ludique et n'est pas pris trop au sérieux.
5. Base de compétence. Le jeu est conçu pour aider les joueurs à améliorer leurs
compétences dans des domaines spécifiques. Les objectifs d'apprentissage vont
du rappel par cœur à la résolution de problèmes complexes et peuvent concerner
des aspects moteurs, informationnels, conceptuels, interpersonnels et affectifs.
domaines.
Jeux de simulation. Un jeu de simulation contient les cinq caractéristiques des jeux
éducatifs, mais en plus il inclut une correspondance entre certains aspects du jeu et la
réalité. Voici quelques exemples de jeux de simulation qui ont été utilisés dans
l'enseignement des concepts de qualité :
• « Beer Game » de Senge dans The Fifth Discipline (Senge, 1990, pp. 26–53).
Le jeu de la bière est conçu pour enseigner la pensée systémique.
• L'expérience de l'entonnoir de Deming. Boardman et Boardman (1990) fournissent
une description détaillée de la façon de mettre en place et de mener l'expérience
de l'entonnoir. L'expérience de l'entonnoir illustre la pensée statistique et la prise
de décision.
• « Le magasin de dépôt de cartes ». Le dépôt de cartes est une petite entreprise qui
compte des clients, un président, un superviseur, un inspecteur, un opérateur de
reprise, plusieurs opérateurs de ligne et un comptable. Il n'y a qu'un seul
processus : déposer des cartes à jouer sur une cible au sol. Idéalement, le client
veut toutes les cartes sur la cible mais acceptera le produit à condition que l'écart
total par rapport à la cible ne soit «pas trop mauvais». Le client précise également
que chaque carte doit être tenue par son centre et déposée individuellement.
Comme l'expérience de l'entonnoir,
Machine Translated by Google
En plus des jeux de simulation, des outils de simulation tels que les quinconces et les
boîtes à billes d'échantillonnage sont couramment utilisés dans une formation de qualité. Des
simulations simples créent un lien concret avec des concepts abstraits, facilitant ainsi la
compréhension du concept.
Jeux de rôle. Dans un jeu de rôle, les joueurs incarnent spontanément les personnages
qui leur sont assignés dans un scénario. Les jeux de rôle prennent diverses formes, par
exemple :
• Personnages. Les personnages d'un jeu de rôle peuvent être identifiés en termes de
fonctions professionnelles, de variables de personnalité ou d'attitudes. Certains jeux
de rôle demandent aux gens de jouer leur propre rôle dans une situation différente
(comme dans un exercice de survie dans
le désert). • Réponses. La plupart des jeux de rôle impliquent une communication face à
face entre les personnages, mais la communication écrite ou téléphonique est
également utilisée.
• Mode d'utilisation. Les groupes peuvent être divisés en petits groupes ou en paires, ou
un groupe peut regarder les autres participer. Les acteurs peuvent être remplacés au
fur et à mesure que le jeu de rôle progresse. Des entraîneurs peuvent être désignés
pour aider les acteurs.
• Nombre de joueurs. La plupart des jeux de rôle impliquent deux personnages, mais il
n'y a pas de limite fixe au nombre de joueurs pouvant être impliqués. • Rejouer.
L'efficacité de certains jeux de rôle peut être améliorée par la répétition. La répétition
peut avoir lieu après une présentation de nouveau matériel par l'instructeur, ou après
avoir changé certains aspects du jeu.
PARTV
Gestion de l'humain
chapitre 18
Ressources
Théories de la motivation et
Principes
chapitre 19
Styles de gestion chapitre
20
M
les décisions de gestion sont souvent classées comme étant
Besoins en ressources pour
jugement, fondé sur des données ou scientifique (Weaver, gérer la qualité
1995, p. 223231). Les styles de gestion sont souvent Fonction
considérés d'un point de vue psychologique. Pourtant, avant de
discuter des styles de gestion spécifiques, il est juste de réfléchir au
rôle approprié d'un gestionnaire.
Dr. W. Edwards Deming (1993) offre la perspective suivante : C'est le nouveau
rôle d'un gestionnaire de personnes après la transformation :
1. Un manager comprend et transmet à son peuple le sens d'un système. Il explique les
objectifs du système. Il enseigne à son peuple à comprendre comment le travail du
groupe soutient ces objectifs.
2. Il aide son peuple à se voir comme des composants d'un système, à travailler en
coopération avec les étapes précédentes et avec les étapes suivantes vers
l'optimisation des efforts de toutes les étapes vers la réalisation du but.
3. Un gestionnaire de personnes comprend que les gens sont différents les uns des
autres. Il essaie de créer pour tout le monde de l'intérêt, du défi et de la joie au travail.
Il essaie d'optimiser les antécédents familiaux, l'éducation, les compétences, les
espoirs et les capacités de chacun. Il ne s'agit pas de classer les gens. C'est plutôt la
reconnaissance des différences entre les gens et une tentative de mettre tout le
monde en position de développement.
4. Il est un apprenant incessant. Il encourage son peuple à étudier. Il offre, lorsque cela
est possible et faisable, des séminaires et des cours pour l'avancement de
l'apprentissage. Il encourage la formation continue au collège ou à l'université pour
les personnes qui le souhaitent.
5. Il est coach et avocat, pas juge.
6. Il comprend un système stable. Il comprend l'interaction entre les gens et les
circonstances dans lesquelles ils travaillent. Il comprend que la performance de
quiconque peut apprendre une compétence arrivera à un état stable, sur lequel
d'autres leçons n'apporteront pas d'amélioration de la performance. Un gestionnaire
de personnes sait que dans cet état stable, il est distrayant de dire au travailleur une
erreur.
Machine Translated by Google
8. Il étudiera les résultats dans le but d'améliorer ses performances en tant que
gestionnaire de personnes.
9. Il essaiera de découvrir qui, si quelqu'un est en dehors du système, a besoin d'une
aide spéciale. Cela peut être accompli avec des calculs simples, s'il existe des
chiffres individuels sur la production ou sur les pannes. L'aide spéciale peut n'être
qu'un simple réaménagement du travail. C'est peutêtre plus compliqué.
Celui qui a besoin d'une aide spéciale n'est pas dans les 5% inférieurs de la distribution
des autres : il est propre en dehors de cette distribution. (Voir Fig. V.1.)
10. Il crée la confiance. Il crée un environnement qui encourage la liberté et l'innovation.
Figure V.1 Les chiffres sur la production ou sur les défaillances, s'ils existent, peuvent être tracés.
L'étude des chiffres montrera le système et les valeurs aberrantes s'il y en a.
Machine Translated by Google
13. Il tiendra une conversation informelle et sans hâte avec chacun des siens au
moins une fois par an, non pas pour juger, simplement pour écouter. Le but
serait de développer la compréhension de son peuple, ses objectifs, ses
espoirs et ses peurs. La rencontre sera spontanée et non planifiée à l'avance.
CHAPITRE 18
Théories et principes
de la motivation
Machine Translated by Google
Machine Translated by Google
369
Machine Translated by Google
370 Gestiondesressourceshumaines
Besoins de réalisation de
soi
Besoins de l'ego
Besoins sociaux
Besoins de sécurité
Besoins psycologiques
Non
Satisfaction Satisfaction
(Motivateurs)
Non
Insatisfaction Insatisfaction
(Facteurs d'hygiène)
meilleur. Les symptômes d'indifférence sont le résultat du lieu de travail moderne, qui
limite ce que les travailleurs peuvent faire et les sépare des résultats finaux de leurs
efforts. C'est le travail de la direction de changer le milieu de travail afin que les travailleurs
puissent, une fois de plus, retrouver la fierté de leur travail.
Des éléments de la théorie Y sont évidents dans la discussion de Deming sur le rôle d'un
gestionnaire de personnes, présentée dans l'introduction de la partie V.
Les théories X et Y existent depuis des décennies. Bien plus tard, dans les années
1980, la théorie Z est devenue à la mode. Les organisations Z ont des cultures
cohérentes dans lesquelles les relations sont holistiques, égalitaires et basées sur la confiance.
Étant donné que les objectifs de l'organisation sont évidents pour tous et intégrés dans
le système de croyances de chacun, l'autodirection est prédominante. Dans l'organisation
Z, les théories X et Y deviennent sans objet. Les travailleurs n'ont pas besoin de la
direction de la direction de la Théorie X, et la direction n'a pas non plus besoin de
travailler à l'élimination des obstacles puisqu'il n'y en a pas.
Machine Translated by Google
Machine Translated by Google
CHAPITRE 19
Styles de gestion
Machine Translated by Google
Machine Translated by Google
375
Machine Translated by Google
376 Gestiondesressourceshumaines
Avec ce style de gestion, les systèmes sont évalués plutôt que les personnes.
Le changement d'orientation est fondamental et profond. Ici, le jugement est une
source de génération d'hypothèses sur des systèmes ou des problèmes, et les
données sont utilisées pour évaluer la qualité des hypothèses. On demande aux gens
de travailler pour stabiliser, puis améliorer, les systèmes et l'organisation dans son ensemble.
leurs processus. Ils travaillent avec les leaders audessus d'eux dans l'organisation pour
améliorer les systèmes de l'organisation et l'organisation dans son ensemble.
MBWA est une autre façon, plus personnelle, de collecter des données. Les puristes
de la statistique dédaignent et rejettent souvent les données obtenues à partir de
rencontres opportunistes ou d'observations non structurées. Mais les informations
obtenues en écoutant les employés ou les clients s'épanouir ne sont pas moins
«scientifiquement valables» qu'une impression informatique des résultats d'enquêtes
auprès des clients. Et les données MBWA sont d'un type différent. La science n'a pas
encore développé d'instruments fiables pour capturer l'information contenue dans des personnes en colère o
Machine Translated by Google
378 Gestiondesressourceshumaines
la hauteur de la voix, les expressions faciales, le gros soupir, mais les humains n'ont aucun mal
à comprendre le sens que ceuxci véhiculent dans le contexte d'une rencontre en face à face. Il
se peut que la nature nous ait câblés pour recevoir et comprendre ces signaux à travers des
éternités d'évolution.
Les techniques employées par les managers qui pratiquent MBWA sont aussi variées que
les personnes ellesmêmes. Le point important est d'établir un contact direct avec le client,
l'employé ou le fournisseur, de près et personnellement.
Cela peut impliquer de rendre visite aux clients sur leur lieu de travail ou de les amener au vôtre,
de gérer le bureau de commande ou la ligne de réclamation tous les mois, de s'asseoir
spontanément avec les employés à la cafétéria, en têteàtête ou en groupe, ou d'inviter le
camion du fournisseur chauffeur à votre bureau pour prendre un café. Utilise ton imagination. Un
conseil : assurezvous de planifier une heure MBWA régulière. Si ce n'est pas sur votre calendrier,
vous ne le ferez probablement pas.
génération—gestion par la direction (microgestion). Les gens ont découvert qu'ils pouvaient
étendre leur capacité en disant aux autres exactement quoi faire et comment le faire :
un maître artisan donnant des instructions détaillées aux apprentis. Cette approche
permet aux experts de tirer parti de leur temps en demandant à d'autres de faire une
partie du travail, et elle maintient une stricte conformité aux normes des experts. Bien
que la capacité de cette approche soit meilleure que la gestion de 1ère génération, la
microgestion a encore une capacité limitée.
•3ème Génération—gestion par les résultats. Les gens en ont marre que vous leur disiez
tous les détails sur la façon de faire leur travail et que vous leur disiez : "Ditesmoi
simplement ce que vous voulez pour quand, et laissezmoi le soin de trouver comment
le faire." Alors, vous dites : « D'accord. Réduire les stocks de 20 % cette année. Je vous
récompenserai ou vous punirai en fonction de la façon dont vous le faites. Bonne
chance." C'est l'approche actuelle de la gestion pratiquée par la plupart des organisations
modernes, avec tous les problèmes de sousoptimisation évoqués précédemment. Sous
optimisation
Machine Translated by Google
Qualité
La Cinquième Discipline
Senge (1990) définit cinq disciplines clés pour le succès organisationnel :
CHAPITRE 20
383
Machine Translated by Google
384 Gestiondesressourceshumaines
Les questions suivantes ont été décrites dans le but de fournir une recette permettant à chaque région de HealthPartners
of Southern Arizona d'identifier, d'illustrer et de détailler les exigences de service et les coûts de prestation de services et/
ou de produits à nos clients. Veuillez répondre à chacune des questions suivantes avec autant de détails que nécessaire.
I. Client/exigences du client
A. Quels sont les principaux produits ou services que vous proposez à vos clients ?
B. Qui sont vos clients ? (Qui reçoit le résultat de vos produits ou services ?)
C. Quelles sont les attentes de vos clients visàvis des produits ou services que vous fournissez à
eux?
D. Quels attributs de ces services ou produits sont les plus importants pour vos clients (par exemple,
opportun, confortable, rentable) ?
E. Quelles techniques de mesure utilisezvous pour confirmer les exigences de vos clients ?
F. Quels sont les principaux facteurs qui rendent vos produits ou services nécessaires ?
A. Créez un organigramme descendant ou détaillé de vos processus clés. (Les processus clés sont définis
comme les processus qui fournissent des services ou des produits directement à vos clients.)
B. Identifiez les niveaux de compétence requis pour chaque étape de votre processus. (Par exemple, une IA commence
une intraveineuse ou un analyste des dossiers de santé termine le processus de codage du dossier.)
1. Identifiez le nombre de niveaux de compétence requis à chaque étape. (Les étapes peuvent impliquer plus d'un
niveau de compétence et/ou des multiples d'un niveau de compétence.)
2. Combien de temps fautil à chaque niveau de compétence pour terminer chaque étape du processus ?
3. Quelle est la durée moyenne pour terminer un cycle du processus ? Existetil un délai standard dans
l'industrie pour terminer ce processus ? Comment votre processus se comparetil aux normes de
l'industrie ? S'il n'y a pas de norme comparable, combien de temps ce processus devraitil prendre
par rapport au temps réel nécessaire pour terminer le processus ?
(Astuce : si vous deviez mesurer ce processus en supposant qu'il n'y avait pas de retards, de goulots d'étranglement,
de pénurie de ressources, etc., combien de temps cela prendraitil ?)
4. Identifiez toutes les autres ressources nécessaires pour soutenir l'ensemble du processus (par
exemple, équipement réutilisable, fournitures jetables, services achetés).
A. Quels sont les coûts totaux chaque fois que le processus est terminé et que le produit ou le service est
livré ? (C'estàdire, quels sont les coûts totaux par unité de service ?)
B. Quels sont les coûts de temps de cycle pour chaque étape du processus ?
A. Quelles sont les causes, les retards ou les obstacles dans votre processus qui créent de la nonvaleur
coût supplémentaire ?
B. Quel niveau de variation et de complexité existetil dans votre processus ? Comment mesurezvous la
variation et la complexité de votre processus ? (Astuce : Que vous dit une carte de contrôle sur la
variabilité du processus ?)
C. Si vous pouviez faire une ou deux choses pour réduire les délais, le gaspillage ou la complexité, quelle
ferais tu?
D. Si vous réussissiez à réduire les délais, le gaspillage, les erreurs et la complexité, comment cela
amélioreraitil le produit ou le service aux yeux de votre client ? (Quel niveau de satisfaction amélioré en
résulterait ?)
Figure 20.1 Processus d'identification des besoins en ressources de qualité. HealthPartners du sud de
l'Arizona ; Dossier de décision. Avec l'aimable autorisation de HealthPartners du sud de l'Arizona. Utilisé
avec autorisation.
Machine Translated by Google
l'allocation pour la prévention de ces coûts est faible par rapport aux coûts totaux de la qualité, la
direction peut voir par ellemême l'impact potentiel des dépenses dans le domaine de la réduction
des coûts de la qualité. De même, si les coûts de défaillance externes sont élevés par rapport aux
coûts d'évaluation, des dépenses d'évaluation supplémentaires peuvent être justifiées.
L'un des inconvénients de l'utilisation des coûts de la qualité pour déterminer les besoins en
ressources de la fonction qualité est que les coûts les plus élevés sont difficiles à déterminer avec
un degré élevé de précision. Quel est le coût si quelqu'un n'achète pas votre produit ? Aussi difficile
qu'il soit de mesurer la valeur de la fidélisation d'un client existant, il est plus difficile de savoir
quand un client potentiel n'a pas considéré votre produit en raison d'une mauvaise réputation de
qualité. Il est également difficile d'estimer le coût des défaillances futures avec de nouveaux
produits ou procédés. Par exemple, une entreprise a décidé de commencer à fabriquer ses propres
boîtes de vitesses. La demande du service qualité pour un vérificateur de matériel coûteux a été
refusée car ils ne pouvaient pas quantifier avec précision les avantages de l'équipement (le coût
était facile à déterminer, 50 000 $).
Deux ans plus tard, un problème sur le terrain avec les engrenages a conduit à un programme de
réparation sur le terrain de 1,5 million de dollars. Par la suite, l'achat du gearchecker a été
rapidement approuvé.
Un autre problème avec les coûts de qualité est qu'ils mesurent les aspects négatifs plutôt
que le manque de points positifs. La qualité n'est pas seulement l'absence de points négatifs (par
exemple, des défauts) ; c'est la présence de caractéristiques souhaitables. Les coûts de qualité ne
mesurent que le coût de la première. Bien qu'il existe des techniques pour estimer le coût des
affaires perdues en raison d'un manque de fonctionnalités souhaitables, elles ne sont pas aussi
bien définies ou standardisées que les coûts de qualité. Ainsi, il est difficile de faire une déclaration
générale concernant leur utilisation dans la sécurisation des ressources pour la fonction qualité.
soulèvent autant de colère que les évaluations du rendement. Il y a des sentiments forts des deux
côtés de la question. Nous discuterons du processus traditionnel d'évaluation des employés, de
certaines critiques de l'approche et de certaines alternatives.
sont souvent utilisés pour déterminer qui obtient quelle part du « gâteau » budgétaire
alloué aux augmentations salariales. De plus, une année est considérée comme une
période suffisamment longue pour atteindre les objectifs de performance définis lors
de l'élaboration des normes. •L'évaluation.
Traditionnellement, l'évaluation est à sens unique : le superviseur évalue l'employé. Les
employés sont parfois invités à fournir leurs propres observations.
Les entreprises qui utilisent l'approche traditionnelle ont le sentiment qu'elle offre une telle
avantages en tant que :
Abolissezles demain ! Ces troislà font beaucoup de mal et pas de bien ; le remède est simple et
rapide.
Contrairement aux souhaits d'une organisation axée sur la qualité, ces processus de gestion
inefficaces encouragent une performance « sûre » à court terme au détriment d'une planification
à long terme. De plus ils
Le résultat net est de décourager l'amélioration significative et maximale des processus. Les
effets négatifs l'emportent de loin sur toute valeur perçue car, sans leur suppression, les niveaux
de qualité souhaités pourraient ne jamais être réalisables.
Les cotes de mérite récompensent les personnes qui réussissent bien dans le système actuel.
Contrairement aux philosophies de qualité modernes, l'accent est mis principalement sur des
objectifs mesurables . En fin de compte, de telles tactiques de motivation ne récompensent pas
les tentatives d'amélioration du système, et l'organisation est perdante. De plus, la tentative
sincère d'évaluer la performance d'un individu sur la base de l'observation personnelle d'un autre
et de l'apport d'autrui introduit des biais inévitables qui compromettent même les meilleures
intentions.
388 Management of Human Resources
1. Rating scales used should have few, not many, rating categories.
Most performers should be in the middle category. (Your author
suggests three categories: below the system, within the system,
and above the system. Unless extremely strong evidence is
available, performers should be rated as within the system.)
• Review responses.
• Summarize the data into a printout.
• Discuss the summary with the assessee during a feedback session.
• With the assessee, write a memo of understanding (a joint agreement
on the significant points made by respondents) and a summary for
the personnel office.
• With the assessee, create an individual growth and development
plan.
• Conduct a follow-up 1 year later.
The person who fills the role traditionally filled by the “boss” in this
boss-less process is the confidant. The confidant is the person who con-
ducts the survey, reviews the responses, and helps create the memo, sum-
mary, and development plan. This individual, a respected peer of the
assessee, attends a 2-day certification program. The training focuses on
the process, the administrative activities associated with each step, the
skills of objectivity and joint decision making, and the format and guide-
lines for creating a development plan. Affirmation and mutual respect
are stressed throughout the training, as well as the need to protect the
anonymity of the survey respondents.
• Create a process that will enable each professional to learn how his
or her behaviors are viewed by customers.
• Focus on professional behaviors exhibited by top performers that
are validated through testing.
• Gather information, as rated by the customers or constituents of the
professional’s work, on that person’s behavior through a general
sampling methodology that assures respondents’ anonymity.
• Use a peer, trained in coaching skills and the administrative
procedures, to oversee the process, conduct the assessment review,
help create a growth and development plan, and conduct the
follow-up session.
• Ensure confidentiality throughout the process by storing the
information in a special file and limiting access to only certain
individuals. This helps build trust and confidence in the process.
• Involve professionals in the decisions that affect them. Allow
them to validate the behaviors on which they will be assessed,
to review the sampling process for respondents, to participate
Professional Development
Professional development is the set of activities associated with obtaining
and maintaining professional credentials and of expanding one’s knowl-
edge in one’s chosen field. Here are a few examples of how some compa-
nies encourage their employees to continue their professional development:
Granite Rock, 1992 Baldrige Award winner, conducts annual professional
development reviews with every employee.
Virginia Beach Ambulatory Surgery Center (outpatient surgery) gives cash
awards and newsletter recognition to people who pass certification exams.
Grumman and IBM both have “Quality Colleges” that offer employees the
equivalent of a college degree program in quality-related subjects.
Credentials
A credential is that which entitles one to a claim of authority or expertise in
a certain area. More concretely, a credential provides evidence that one has
a right to such a claim.
One class of credentials is compliance credentials. Compliance creden-
tials include licenses required by regulatory agencies for jobs that
involve public health and/or safety. In addition to legally required cre-
dentials, employers or customers may require credentials for such jobs
as a condition of the contract. Credentials are sometimes required to per-
mit one to perform certain tasks that require a level of skill that can’t be
easily determined by after-the-fact inspection of the work, for example,
welding or reading of X-ray images. Such credentials are often highly
task-specific, for example, certified to perform a particular surgical pro
cedure or to weld nuclear reactors. Since skills can deteriorate, periodic
recertification is usually required to maintain the credential. Examples
of jobs requiring compliance credentials are surgeons, certain engineer-
ing professions (including, in some states, quality engineering), nurses,
midwifes, radiology technicians, food and drug workers, nuclear inspec-
tors, nuclear welders, etc.
Professional Certification
It is possible to obtain certification in many of the broad categories of jobs
in the quality field. Certification is formal recognition by one’s peers
(ASQ) that an individual has demonstrated a proficiency within and a
comprehension of a specified body of knowledge at a point in time. Peer
recognition is not registration or licensing.
• Goals should be accepted. The best goal is one set by oneself, even
though the supervisor provides guidance and assistance in the
goal-setting process.
Coaching
In modern, quality-focused organizations supervisors may spend up to
60 percent of their time coaching. On a one-on-one basis, coaching refers
to the process of helping a single employee improve some aspect of his or
her performance. On a group level, coaching is a process of developing
effective teams and work groups. The successful coach needs the follow-
ing skills:
• Communication skills
• Listening skills
• Analysis skills
• Negotiation skills
• Conflict resolution skills
Coaches must also understand how adults learn and grow. Brookfield
(1986) identified six factors that influence adult learning:
• Setting objectives
• Performance reviews
• Salary discussions
• Career planning-development discussions
• Job posting and bidding discussions
Forms of Coaching
Coaching can take on a variety of forms. The traditional form is, as
described above, a supervisor coaching a subordinate or a sponsor coach-
ing a team. However, other forms do occur on occasion and should prob-
ably occur more often than they do. A number of the more common
alternative forms of coaching are described here (Finnerty, 1996):
command authority over any other party. For all the talk of formal
training, policy, and procedure manuals, etc., the truth is that in
the real world, most “training” takes the form of a co-worker
telling the employee “the way it’s really done around here . . .” Peer
coaching recognizes that this approach has tremendous value.
Among the advantages is that there is less hesitancy in asking a
peer for help for fear of revealing ignorance or bothering one’s
superior with a minor problem. Peer coaching can be facilitated by
putting people together for the purpose of learning from one
another. Peer coaches are provided with training in the skills of
coaching.
• Executive coaching. By its nature a command hierarchy discourages
upward communication of “bad news.” The result of this is that the
higher one’s position in the hierarchy, the less feedback one obtains
on their performance. This is especially true for negative feedback.
Employees quickly learn that it is not in their best interest to criticize
the boss. While these problems are partially alleviated by such
innovations as anonymous 360-degree performance assessments, it
may also be useful for the executive to have a coach. The executive
coach is usually a consultant hired from outside of the firm. The
coaching role is typically to act as coach to the executive team, rather
than to a particular executive.
21_Pyzdek_AppA_Ch21_p399-402.indd 401
2 2.121 1.880 2.659 0.7979 1.2533 0 3.267 0 2.606
3 1.732 1.023 1.954 0.8862 1.1284 0 2.568 0 2.276
4 1.500 0.729 1.628 0.9213 1.0854 0 2.266 0 2.088
5 1.342 0.577 1.427 0.9400 1.0638 0 2.089 0 1.964
6 1.225 0.483 1.287 0.9515 1.0510 0.030 1.970 0.029 1.874
7 1.134 0.419 1.182 0.9594 1.0423 0.118 1.882 0.113 1.806
8 1.061 0.373 1.099 0.9650 1.0363 0.185 1.815 0.179 1.751
9 1.000 0.337 1.032 0.9693 1.0317 0.239 1.761 0.232 1.707
10 0.949 0.308 0.975 0.9727 1.0281 0.284 1.716 0.276 1.669
11 0.905 0.285 0.927 0.9754 1.0252 0.321 1.679 0.313 1.637
12 0.866 0.266 0.886 0.9776 1.0229 0.354 1.646 0.346 1.610
13 0.832 0.249 0.850 0.9794 1.0210 0.382 1.618 0.374 1.585
14 0.802 0.235 0.817 0.9810 1.0194 0.406 1.594 0.399 1.563
15 0.775 0.223 0.789 0.9823 1.0180 0.428 1.572 0.421 1.544
16 0.750 0.212 0.763 0.9835 1.0168 0.448 1.552 0.440 1.526
17 0.728 0.203 0.739 0.9845 1.0157 0.466 1.534 0.458 1.511
18 0.707 0.194 0.718 0.9854 1.0148 0.482 1.518 0.475 1.496
19 0.688 0.187 0.698 0.9862 1.0140 0.497 1.503 0.490 1.483
20 0.671 0.180 0.680 0.9869 1.0133 0.510 1.490 0.504 1.470
21 0.655 0.173 0.663 0.9876 1.0126 0.523 1.477 0.516 1.459
22 0.640 0.167 0.647 0.9882 1.0119 0.534 1.466 0.528 1.448
23 0.626 0.162 0.633 0.9887 1.0114 0.545 1.455 0.539 1.438
24 0.612 0.157 0.619 0.9892 1.0109 0.555 1.445 0.549 1.429
25 0.600 0.153 0.606 0.9896 1.0105 0.565 1.435 0.559 1.420
401
11/9/12 5:32 PM
402 Appendix A
LCL = np − 3 np (1 − p ) p (1 − p )
LCL = p − 3
LCL
n
Or 0 if LCL is negative Or 0 if LCL is negative
Center
UCL = np + 3 np (1 − p ) p (1 − p )
UCL = p + 3
UCL
n
or n if UCL is greater than n or 1 if UCL is greater than 1
c Chart u Chart
LCL = c − 3 c u
LCL = u − 3
LCL
n
Or 0 if LCL is negative Or 0 if LCL is negative
Center
UCL = c + 3 c u
UCL
UCL = u + 3
n
X Chart
LCL
LCL = X − 2 . 66 × R
sum of measurements
Center
X=
Line
number of measurements
UCL = X + 2 . 66 × R
UCL
405
UCL = D4R
UCL
UCL = X + A2R
Or 0 if LCL is negative
Center
UCL = B4 S
UCL
UCL = X + A3S
21_Pyzdek_AppC_Ch21_p407-412.indd 409
-3.1 0.0010 0.0009 0.0009 0.0009 0.0008 0.0008 0.0008 0.0008 0.0007 0.0007
-3.0 0.0013 0.0013 0.0013 0.0012 0.0012 0.0011 0.0011 0.0011 0.0010 0.0010
-2.9 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
-2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
-2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
-2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
-2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
-2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
-2.3 0.0107 0.0104 0.0102 0.0090 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
-2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
-2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
-2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
-1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
-1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
-1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
-1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
-1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
-1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
-1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
-1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
-1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
-1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
409
(Continued)
11/9/12 5:33 PM
410
21_Pyzdek_AppC_Ch21_p407-412.indd 410
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
-0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
-0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
-0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
-0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
-0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
-0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
-0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
-0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
-0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
-0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
11/9/12 5:33 PM
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
21_Pyzdek_AppC_Ch21_p407-412.indd 411
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
411
11/9/12 5:33 PM
21_Pyzdek_AppC_Ch21_p407-412.indd 412 11/9/12 5:33 PM
APPENDIX D
Simulated Certification
Exam Questions
415
1. Under the Kano model, which of the following is most likely to occur
as a result of competitive pressure?
a. A basic quality feature will become an expected quality feature.
b. An exciting quality feature will become an expected quality feature.
c. An expected quality feature will become a basic quality feature.
d. Choices b and c.
Satisfaction
Competitive
Exciting pressure
Wow! quality
Satisfaction
region Expected
quality
Quality
Dissatisfaction
region Basic
quality Must have!
13. The quality audit could be used to judge all of the following except:
a. a prospective vendor’s capability for meeting quality standards.
b. the adequacy of a current vendor’s system for controlling quality.
c. the application of a specification to a unique situation.
d. the adequacy of a company’s own system for controlling quality.
15. The term “quality audit” can refer to the appraisal of the quality
system of:
a. an entire plant or company.
b. one product.
c. one major quality activity.
d. any of the above
16. You would normally not include data from which of the following
investigations in quality auditing?
a. Examination of all items produced
b. Examination of customer needs and the adequacy of design
specifications in reflecting these needs
c. Examination of vendor product specifications and monitoring
procedures
d. Examination of customer quality complaints and adequacy of
corrective action
17. In order to be effective, the quality audit function should ideally be:
a. an independent organizational segment in the quality control
function.
b. an independent organizational segment in the production control
function.
c. an independent organizational segment in manufacturing operations
function.
d. all of the above
18. The following are reasons why an independent audit of actual practice
versus procedures should be performed periodically:
1. Pressures may force the supervisor to deviate from approved
procedures.
2. The supervisor may not have time for organized follow-up or
adherence to procedures.
3. Supervisors are not responsible for implementing procedures.
a. 1 and 2 only
b. 1 and 3 only
c. 2 and 3 only
d. 1, 2, and 3
24. In many programs, what is generally the weakest link in the quality
auditing program?
a. Lack of adequate audit check lists
b. Scheduling of audits (frequency)
c. Audit reporting
d. Follow-up of corrective action implementation
26. Which of the following best describes the “specific activity” type of
audit?
a. Customer-oriented sampling of finished goods
b. Evaluation for contractual compliance of quality system
c. Assessment or survey of potential vendor
d. An inspection performance audit
e. None of the above
28. During the pre-award survey at a potential key supplier, you discover
the existence of a quality control manual. This means:
a. that a quality system has been developed.
b. that a quality system has been implemented.
c. that the firm is quality conscious.
d. that the firm has a quality manager.
e. all of the above
29. Which of the following quality system provisions is of the least
concern when preparing an audit checklist for the upcoming branch
operation quality system audit?
a. Drawing and print control
b. Makeup of the MRB (material review board)
c. Engineering design change control
d. Control of special processes
e. Calibration of test equipment
40. When giving instructions to those who will perform a task, the
communication process is completed:
a. when the worker goes to his work station to do the task.
b. when the person giving the instruction has finished talking.
c. when the worker acknowledges these instructions by describing
how he will perform the task.
d. when the worker says that he understands the instructions.
41. Studies have shown that the most effective communications method
for transferring information is:
a. oral only.
b. written only.
c. combined written and oral.
d. bulletin board.
42. The most important reason for a checklist in a process control audit
is to:
a. ensure that the auditor is qualified.
b. minimize the time required for audit.
c. obtain relatively uniform audits.
d. notify the audited function prior to audit.
48. In preparing a product quality policy for your company, you should
do all of the following except:
a. specify the means by which quality performance is measured.
b. develop criteria for identifying risk situations and specify whose
approval is required when there are known risks.
c. include procedural matters and functional responsibilities.
d. state quality goals.
49. The first and most important step in establishing a good corporate
quality plan is:
a. determining customer requirements.
b. determining manufacturing process capabilities.
c. evaluating vendor quality system.
d. ensuring quality participation in design review.
50. The most important measure of outgoing quality needed by managers
is product performance as viewed by:
a. the customer.
b. the final inspector.
c. production.
d. marketing.
53. Shewhart X-bar control charts are designed with which one of the
following objectives?
a. Reduce sample size.
b. Fix the risk of accepting poor product.
c. Decide when to hunt for causes of variation.
d. Establish an acceptable quality level.
54. A quality program has the best foundation for success when it is
initiated by:
a. a certified quality engineer.
b. contractual requirements.
a. $244,000
b. $151,000
c. $261,000
d. $205,000
e. $332,000
59. If prevention costs are increased to pay for engineering work in quality
control, and this results in a reduction in the number of product
defects, this yields a reduction in:
a. appraisal costs.
b. operating costs.
c. quality costs.
d. failure costs.
e. manufacturing costs.
62. In selecting a base for measuring quality costs, which of the following
should be considered?
a. Is it sensitive to increases and decreases in production schedules?
b. Is it affected by mechanization and the resulting lower direct labor
costs?
c. Is it affected by seasonal product sales?
d. Is it oversensitive to material price fluctuations?
e. All of the above.
63. Which of the following quality cost indices is likely to have the
greatest appeal to top management as an indicator of relative cost?
a. Quality cost per unit of product
b. Quality cost per hour of direct production labor
c. Quality cost per unit of processing cost
d. Quality cost per unit of sales
e. Quality cost per dollar of direct production labor
64. Review of purchase orders for quality requirements falls into which
one of the following quality cost segments?
a. Prevention
b. Appraisal
c. Internal failures
d. External failures
68. In some instances, the ordinary cost-balance formula is not valid and
cannot be applied because of the presence of vital intangibles. Such an
intangible involves:
a. safety of human beings.
b. compliance with legislation.
c. apparatus for collection of revenue.
d. credit to marketing as new sales for warranty replacements.
e. none of the above
69. What is the standard deviation of the following sample 3.2, 3.1, 3.3, 3.3,
3.1?
a. 3.2
b. 0.0894
c. 0.1
d. 0.0498
e. 0.2
80. A process is in control with p = 0.10 and n = 100. The three-sigma limits
of the np-control chart are:
a. 1 and 19.
b. 9.1 and 10.9.
c. 0.01 and 0.19.
d. 0.07 and 0.13.
81. A p char:
a. can be used for only one type of defect per chart.
b. plots the number of defects in a sample.
82. The control chart that is most sensitive to variations in a measurement is:
a. p chart.
b. np chart.
c. c chart.
d. X-bar and R chart.
86. In which one of the following is the use of an X and R chart liable to be
helpful as a tool to control a process?
a. The machine capability is wider than the specification.
b. The machine capability is equal to the specification.
c. The machine capability is somewhat smaller than the specification.
d. The machine capability is very small compared to the specification.
90. When analyzing quality cost data gathered during the initial stages of a
new management emphasis on quality control and corrective action as
part of a product improvement program, one normally expects to see:
a. increased prevention costs and decreased appraisal costs.
b. increased appraisal costs with little change in prevention costs.
c. decreased internal failure costs.
d. decreased total quality costs.
e. all of these
91. Quality costs are best classified as:
a. cost of inspection and test, cost of quality engineering, cost of
quality administration, and cost of quality equipment.
b. direct, indirect, and overhead.
c. cost of prevention, cost of appraisal, and cost of failure.
d. unnecessary.
e. none of the above
95. When operating a quality cost system, excessive costs can be identified
when:
a. appraisal costs exceed failure costs.
b. total quality costs exceed 10 percent of sales.
c. appraisal and failure costs are equal.
d. total quality costs exceed 4 percent of manufacturing costs.
e. There is no fixed rule; management experience must be used.
96. Quality cost systems provide for defect prevention. Which of the
following elements is primary to defect prevention?
a. Corrective action
b. Data collection
c. Cost analysis
d. Training
97. Quality cost analysis has shown that appraisal costs are apparently
too high in relation to sales. Which of the following actions probably
would not be considered in pursuing this problem?
a. Work sampling in inspection and test areas
b. Adding inspectors to reduce scrap costs
c. Pareto analysis of quality costs
d. Considering elimination of some test operations
e. Comparing appraisal costs with bases other than sales—for
example direct labor, value added, etc.
Considering only the quality costs shown above, we might conclude that:
99. This month’s quality cost data collection shows the following:
• Returned material processing $1800
• Adjustment of customer complaints $4500
• Rework and repair $10,700
• Quality management salaries $25,000
• Warranty replacement $54,500
• Calibration and maintenance of test equipment $2500
• Inspection and testing $28,000
For your “action” report to top management, you select which one of
the following as the percentage of “External Failure” to “Total Quality
Costs” to show the true impact of field problems?
a. 20 percent
b. 55 percent
c. 48 percent
d. 24 percent
e. 8 percent
105. When prevention costs are increased to pay for the right kind
of engineering work in quality control, a reduction in the number
of product defects occurs. This defect reduction means a substantial
reduction in:
a. appraisal costs.
b. operating costs.
c. prevention costs.
d. failure costs.
e. manufacturing costs.
106. The quality cost of writing instructions and operating procedures for
inspection and testing should be charged to:
a. appraisal costs.
b. internal failure costs.
c. prevention costs.
d. external failure costs.
107. When analyzing quality costs, a helpful method for singling out the
highest cost contributors is:
a. a series of interviews with the line foreman.
b. the application of the Pareto theory.
c. an audit of budget variances.
d. the application of break-even and profit volume analysis.
112. Assume that the cost data available to you for a certain period are
limited to the following:
• $20,000—Final test
• $350,000—Field warranty costs
• $170,000—Re-inspection and retest
• $45,000—Loss on disposition of surplus stock
• $4000—Vendor quality surveys
• $30,000—Rework
The total failure cost is:
a. $550,000
b. $30,000
c. $350,000
d. $380,000
113. A goal of a quality cost report should be to:
a. get the best product quality possible.
b. be able to satisfy MIL-Q-9858A.
c. integrate two financial reporting techniques.
d. indicate areas of excessive costs.
116. When one first analyzes quality cost data, he might expect to find that,
relative to total quality costs:
a. costs of prevention are high.
b. costs of appraisal are high.
c. costs of failure are high.
d. all of the above
117. Quality costs should not be reported against which one of following
measurement bases:
a. direct labor.
b. sales.
c. net profit.
d. unit volume of production.
122. If a distribution is skewed to the left, the median will always be:
a. less than the mean.
b. between the mean and the mode.
c. greater than the mode.
d. equal to the mean.
e. equal to the mode.
124. When an initial study is made of a repetitive industrial process for the
purpose of setting up a Shewhart control chart, information on the
following process characteristic is sought.
a. Process capability
b. Process performance
c. Process reliability
d. Process conformance
125. Which one of the following would most closely describe machine
process capability?
a. The process variation
b. The total variation over a shift
c. The total variation of all cavities of a mold, cavities of a die cast
machine, or spindles of an automatic assembly machine
d. The variation in a very short run of consecutively produced parts
139. Who has the initial responsibility for manufactured product quality?
a. The inspector
b. The vice president
c. The operator
d. The quality manager
142. In order to instill the quality control employee with the desire to
perform to his or her utmost and optimum ability, which of the
following recognition for sustaining motivation has been found
effective for most people?
a. Recognition by issuance of monetary award
b. Public verbal recognition
c. Private verbal recognition
d. Public recognition, plus non-monetary award
e. No recognition; salary he or she obtains is sufficient motivation
143. Which of the following methods used to improve employee efficiency
and promote an atmosphere conducive to quality and profit is the
most effective in the long run?
a. Offering incentives such as bonus, praise, profit sharing, etc.
b. Strict discipline to reduce mistakes, idleness, and sloppiness
c. Combination of incentive and discipline to provide both reward for
excellence and punishment for inferior performance
d. Building constructive attitudes through development of realistic
quality goals relating to both company and employee success
e. All of the above provided emphasis is placed on attitude
motivation, with incentive and discipline used with utmost caution
144. An essential technique in making training programs effective is to:
a. set group goals.
b. have training classes that teach skills and knowledge required.
c. feed back to the employee meaningful measures of his performance.
d. post results of performance before and after the training program.
e. set individual goals instead of group goals.
147. Deming says that the responsibility for optimizing a system rests with:
a. the team leaders assigned to that project.
b. the process workers who know the system the best.
c. management.
d. none of the above
155. Once we have identified the constraint, and taken actions to make the
most of its resources, we should:
a. define parameters for other system elements to complement the
constraint’s needs.
b. improve the capacity of downstream processes.
c. regularly verify that the constraint has not moved.
d. all of the above
e. choices a and c
161. The critical chain approach accounts for which of the following behaviors?
a. Estimating task time longer than necessary to avoid late completion
b. Starting the task just prior to the scheduled completion date
c. Using all of allotted task time, regardless of how long it really takes
d. Assigning a given person multiple tasks with deadlines
e. All of the above
162. Critical chain management:
a. ensures on-time project completion by maintaining on-time
completion of each activity on the critical chain.
b. replaces time estimate padding for activities with time buffers at
key points on the critical chain.
c. should be used with caution if a resource has more than one task
assigned to it.
d. should not be applied to managing multiple projects at once.
171. Companies that successfully implement Six Sigma are likely to:
a. initially spend a lot of money on training, but receive benefits that
might be hard to quantify over the course of time.
b. realize decreased quality costs and improved quality.
c. see a reduction in critical defects and cycle times.
d. all of the above
e. choices b and c only
175. In the Six Sigma project methodology acronym DMAIC, the “I” stands
for:
a. Integrate.
b. Investigate.
c. Improve.
d. Ignore.
179. Which of the following are NOT parts of Deming’s system of profound
knowledge?
a. Constantly evaluate all employees
b. Appreciation for a system
c. Knowledge about variation
d. Theory of knowledge
180. Which of the following are NOT one of Deming’s 14 points?
a. Institute a vigorous program of education and self-improvement.
b. Put everybody in the company to work to accomplish the
transformation. The transformation is everybody’s job.
c. Eliminate slogans, exhortations, and targets asking for zero defects
or new levels of productivity.
d. None of the above.
181. Examples of hidden factory losses include all of the following except:
a. capacity losses due to reworks and scrap.
b. stockpiling of raw material to accommodate poor yield.
c. rush deliveries.
d. All of the above are examples of hidden factory losses.
182. An invoicing process generates only ten to fifteen orders per month.
In establishing the statistical control of the invoice process:
a. use a subgroup size of one.
b. use a subgroup size of five, which is generally the best size.
c. use a subgroup size of ten.
d. use a subgroup size of fifteen.
187. The management team has decided that there are three criteria for
choosing projects, with their relative importance weighting shown in
parenthesis:
• Financial benefit/cost ratio (0.3)
• Perceived customer benefit (0.5)
• Safety benefit (0.2)
Four projects have been reviewed relative to these criteria, with the
scores for each criterion shown in the following table.
a. Project A
b. Project B
c. Project C
d. Project D
188. Joe’s project seemed to be going along well until the project team
started to implement the solution. At that point, a department that
hadn’t been involved, but will be affected, starting raising objections
and pointing out problems with the proposed solution. This indicates:
a. the team should immediately get the sponsor involved to settle the
disagreements.
b. the department is afraid of change and needs to be told to accept
the team’s findings.
c. the department should have been identified as stakeholders early
on and included in the project team or the team’s problem
solving sessions.
d. choices a and b
189. Bob, a team leader, is having trouble getting buy-in from various
members of the team. In one particular problem-solving meeting,
these team members didn’t seem to listen to any of Bob’s ideas,
and were insistent that their ideas were more credible. Some
reasonable advice to Bob would be:
a. Replace the team members with those more willing to work as team
players.
b. Work on his communication skills, display interest for others’ ideas,
and use data to determine which ideas have the most merit.
c. Ask their managers or the project sponsor to persuade them to get
on board.
d. choices a and c
191. Bill’s team is having a hard time agreeing on a plan for data gathering.
There are three general suggestions that have been offered: one by a
process expert and two by other team members. To decide which plan
to deploy, the team should:
a. accept the idea offered by the process expert. Doing otherwise is an
insult to his or her expertise.
b. vote on the different proposals, with the plan receiving the highest
vote being deployed.
c. develop new plans that take the best parts of the proposed plans
with compromises on the conflicting aspects of the various plans.
Vote on the resulting plans.
d. try to reach a compromise on the various plans, with a resulting
plan that everyone can live with, even if it’s not perfect to any of the
parties.
192. Jill is the team leader for a project aimed at reducing the cycle time for
invoices. The team has reached an impasse on generating potential
root causes of process failure; only a few ideas have been offered by
only a few of the team members. As team leader, Jill should:
a. request that the current team be dissolved, and a new team formed
with process experts.
b. report the impasse to the sponsor, and suggest the team meet again
in a month or two when they have a fresh perspective.
c. use brainstorming tools.
d. end the meeting, and work on developing the list herself.
193. Joan is a Black Belt and project team leader. Her team includes, amongst
other members, a manager and a clerk from different departments.
Early in today’s team meeting, after the clerk had offered an idea during
the brainstorming session, the manager made a joke about the feasibility
of the idea. Just now, the manager has stifled the clerk’s comments by
asserting the clerk lacked the experience to suggest potential causes of
the problem under investigation. Joan should:
a. wait until the end of the meeting and discuss the issue separately
with the clerk and the manager.
b. immediately remind the manager of the team ground rule
of “respectful communication” and the general rules for
brainstorming.
c. give it some time and allow personalities to gel. Perhaps the
manager is having a bad day and will be more agreeable in future
meetings.
d. do nothing. The manager should be given respect for his or her
position in the company, and the point is well taken on the clerk’s
experience. Furthermore, the earlier joke really gave the team
something to chuckle about, easing tension.
197. At the team’s third meeting, its leader, John, is starting to feel a bit
uncomfortable. He had established ground rules for the team, and
some of its members are starting to question those rules. John should:
a. exercise his authority as team leader and insist that the team follow
the rules.
b. lead the team to establish its own rules.
c. defer to the team sponsor.
d. none of the above
198. In team meetings, Jane seems to listen to whoever is speaking, but then
has questions for the speaker. John, the team leader, senses that a few
team members are frustrated with Jane, thinking she takes up too much
time. John should:
a. politely ask Jane, after the meeting, to try to keep her questions to a
minimum.
b. politely ask Jane during the meeting to try to keep her questions to
a minimum.
c. thank Jane publicly for asking relevant questions of team members,
so that issues and opinions are clearly understood.
d. ignore the frustrations. Personalities don’t always mesh.
457
465
Appraisals: Awards:
costs, 143f Best Plant’s Award, 133
customer-supplier, 389–390 Deming Prize, 48–49, 133
performance, 383–384 European Foundation for Quality Manage-
alternatives to, 388–393 ment Award, 133
criticisms of, 386–388 European Quality Award, 49–51
process, 390 Malcolm Baldrige National Quality Award,
Area under standard normal curve, 407–411 37t, 45–48, 46f, 51, 52, 133
Arrow diagrams, 273–275 post-award surveillance, 234–235
ASQ. See American Society for Quality pre-award audit, 217
Assessment, organizational, 139–149 pre-award survey, 231
Assignable causes, 163 Quality Cup Award, 133
Association, 194
ATE. See Automated test equipment B
Athey, Thomas H., 77–78 Barriers:
Aubrey, C. A., 353 to change, 249–250
Audits, quality, 211–226 identifying, 72
auditor qualifications, 217–218 “Beer Game,” 360
book results, 213t Benchmarking:
characteristics and, 223–226 analysis and, 132
conducting, 216–221 benefits of, 131
desk, 216 competitive, 131
internal, 215 failed efforts of, 134–136
internal quality surveys and, 218 getting started with, 132–134
planning, 216–221 Benneyan, J. C., 386
post-audit activities, 220–221 Best Manufacturing Practices, 133
pre-award, 217 Best Plant’s Award, 133
process, 214, 236 Bias, 301, 301f
product, 212–213 selection, 114
process, and materials control, Big project approach, 38
221–223 Black Belts, 54, 263, 352
reporting process, 219–220 Blanchard, Ken, 78
surveillance, 217 Body of Knowledge, ASQ, 416
systems, 214 Bonsignore, Mike, 53
third-party, 215–216 Book audit results, 213t
two-party, 215 Boss-less performance review,
types of, 212–216 391–393
Auditor qualifications, 217–218 Bossidy, Larry, 53
Austin, N., 377 Bottleneck, 84
Autocratic management style, 377 Boundary positions, 114
Automated test equipment (ATE), Boy Scout analogy, 90
85–86 Brainard, E. H., 232
Automation, 342 Brassard, M., 256
Automotive Industry Action group (AIAG), Breach of warranty, 24
345, 347t Breakthrough phase, 316
Average control charts, 165–167, 166t Breakthrough strategy, 262
Average run length, 174 Brookfield, D., 396
European Foundation for Quality Manage- Fishbone diagram. See Cause-and-effect dia-
ment (EFQM), 49 gram
European Foundation for Quality Manage- Fitzsimmons, C. F., 391, 392
ment Award, 133 5S’s (Lean concept), 338–339
European Quality Award, 49–51 Five Focusing Steps, 82–85
Evaluation: Five key disciplines, 379–380
CASE, 233 Flattened hierarchies, 59
checklist, for vendors, 232f Flow, 308
performance, 352–353 Flowcharts, 295–296, 337
appraisals, 385–393 FMEA. See Failure mode and effects analysis
PERT, 273, 276 Focus, 10, 54
product, 234 Focus groups, 127–128
retrospective, of control charts, 194 Food and Drug Administration (FDA), 249
of supplier, 141 Fool-proofing, 341–342
Evaporating Cloud (EC), 88, 90f Football team analogy, 76
Events, 182 Ford, Henry, 7, 68
EWMA charts, 175 Ford Motor Company, 18
Exam questions, of simulated certification, Formal audit reports, 219–220
416–454 Forming stage, of group development, 289
Exciters, 298 Forsha, H. I., 250
Executive coaching, 398 Fortune 500, 12
Exploitation, of system’s constraint, Fortune magazine, 133
83, 259 4th generation management, 378–379
External customers, 108 14 points management theory, 34–36
External failure costs, 143f Fourth Generation Management (Joiner), 378
External roadblocks, 249 Fox, R. E., 90
External steps, 339–340 Freak patterns, 190, 190f
Extrapolation, 321 FRT. See Future Reality Tree
Functional/hierarchical structure, 6–8
F Fundamental learning unit, 380
Facebook, 71 Funnel experiment, 360
Factual approach, to decision-making, 45 Funnel rules, 199, 199f
Failure costs, 143f Future Reality Tree (FRT), 88, 91f
Failure modes, 340–348
Failure mode and effects analysis (FMEA), G
344–348 GAAP. See Generally accepted accounting
FDA. See Food and Drug Administration procedures
Federal Quality Institute, 133 Galvin, Bob, 52
Feigenbaum, A. J., 36 Games:
Felkins, P. K., 353 “Beer Game,” 360
Field experiment, 113 “Card Drop Shop,” 360–361
The Fifth Discipline (Senge), 76, 78 closure and, 360
Fill-in-the-blank questions, 120 competency base and, 360
Financial constraints, 79 conflict and, 360
Financial measures, 99–102 contrivance and, 360
Finished goods, 225 control and, 360
1st generation management, 378 instructional, 359–361
Uploaded by [StormRG]