Académique Documents
Professionnel Documents
Culture Documents
SIX
SIGMA
EN
PRATIQUE
Six Sigma en pratique
1
Auteurs
Rijk Schildmeijer
Master Black Belt et partenaire chez The Lean Six Sigma Company.
Paul Suijkerbuijk
Master Black Belt et partenaire chez The Lean Six Sigma Company.
Couverture :
Nick Heurter, OnlineMarketing.nl B.V.
2
PREFACE
Merci d'avoir choisi une formation Lean Six Sigma de The Lean Six Sigma
Company. Notre ambition est de vous former pour devenir une ceinture
noire ou ceinture verte afin que vous puissiez par vous-même amener les
organisations à un niveau supérieur. Nous serions heureux de vous aider à
atteindre cet objectif. Nos atouts sont nos formateurs (Master Black Belts
avec des années d'expérience dans le milieu des affaires et d'autres
organisations), notre approche de la formation et notre matériel de
formation. L'amélioration continue est une constante dans tous nos cours.
C'est peut-être avec la même ambition que vous avez commencé ce cours.
Nous ferons tout notre possible pour vous enseigner les méthodes et les
techniques dont vous avez besoin pour traduire cette ambition en résultats.
Bien sûr, l'amélioration continue s'applique également à nous. Nous
aimerions savoir comment nous pouvons améliorer nos cours et le matériel
pour atteindre un niveau de qualité supérieur. En fin de compte,
l'amélioration continue est quelque chose que nous réalisons ensemble.
Managing Partner
3
4
Table des matières
PREFACE ...........................................................................................................3
CHAPITRE 0 : INTRODUCTION LEAN SIX SIGMA .............................................15
0.1 Introduction .................................................................................15
7
4.4 Exercices .....................................................................................148
CHAPITRE 5 : OBJECTIF FONDE SUR LA PERFORMANCE DE BASE ...........151
10
9.4 Analysez les résultats du pilote ..................................................301
9.5 Conseils pratiques pour un pilote réussi ....................................302
11
12.4 Leçons tirées, suggestions de projets de suivi, poursuite de la
perfection ................................................................................................334
A1.6 Exercices..........................................................................................353
13
14
CHAPITRE 0 : INTRODUCTION LEAN SIX
SIGMA
0.1 Introduction
Ce premier chapitre du cours donne un aperçu de Six Sigma en tant que
méthode d'amélioration des processus. Dans ce chapitre, la structure
DMAIC, l'organisation Six Sigma, les rôles Six Sigma et son application dans
l'industrie et les services sont expliqués. Enfin, nous discutons de la mise en
œuvre de Six Sigma dans une organisation.
qua·li·té la ; pl. -s 1 mesure dans laquelle quelque chose est bon ; aspect,
compétence, nature : la ~ de cette matière 2 fonction : en sa ~ de
bourgmestre 3 bonne aptitude : une personne avec des
~és compétences ; articles de ~
La qualité est liée tant au produit/service qu'au processus. Il s'agit d'un lien
de cause à effet. Le processus débouche sur un produit ou un service. La
qualité du processus entraîne la qualité du produit ou du service. Six Sigma
15
intervient sur la qualité du processus afin d'améliorer la qualité du produit
ou du service. Il existe deux notions qui jouent un rôle central à ce niveau :
Dans ce cours, nous voyons Six Sigma comme une méthode utilisée pour
amener la qualité des processus à un niveau supérieur. Le but de Six Sigma
est d'augmenter l'efficacité et l'efficience des processus.
16
0.3 Origine de Six Sigma
Six Sigma est une stratégie de management qui a été développée à l'origine
en 1986 par Motorola, aux Etats-Unis, et qui a été appliquée dans de
nombreux secteurs d'activité. Six Sigma vise à améliorer la qualité des
résultats des processus en identifiant et en éliminant les causes de défauts
et erreurs à l'aide d'un protocole (« DMAIC ») et, ce faisant, en réduisant les
variations dans les processus. Il se compose d'un ensemble de méthodes et
d'outils de gestion de la qualité, y compris des outils statistiques, et
développe une infrastructure particulière avec des personnes de
l'organisation (les « ceintures noires », « ceintures vertes », etc.) qui sont
des experts dans l'utilisation de ces méthodes. Chaque projet Six Sigma dans
une organisation suit un protocole prédéfini et a des objectifs financiers
quantifiables (réduction des coûts et/ou augmentation du bénéfice).
Le terme « Six Sigma » trouve son origine dans la terminologie qui a été
utilisée dans l'industrie de la production, des termes spécifiques qui sont
associés à des modèles statistiques ou des processus de production. La
maturité d'un processus de production peut être décrite avec une
évaluation « sigma », qui indique le rendement, par exemple, en
pourcentage des produits finis sans défauts. Un processus Six Sigma est un
processus dans lequel on s'attend à ce que 99,99966% des produits soient
irréprochables (3,4 défauts par million). L'objectif de Motorola était de
parvenir à « Six Sigma » pour l'ensemble de ses processus de production, et
c'est devenu le surnom de toutes les activités commerciales et techniques
visant à réaliser cet objectif.
0.4 Variation
Six Sigma met l'accent sur la prédictibilité du résultat d'un processus, qui
correspond à la demande des clients. Malheureusement, le résultat d'un
processus n'est pas toujours le même. Les écarts entre les résultats sont
connus comme variation. La variation est présente dans tous les processus.
Quelques exemples :
17
• Le temps qu'il vous faut pour aller de la maison au travail et en revenir ;
certains jours, cela prend plus de temps que d'autres.
• La quantité de frites par sac de pommes de terre.
• Le temps que vous devez attendre à la caisse du supermarché.
• La couleur de différents lots de la même peinture.
La variation se produit dans le résultat d'un processus, ainsi que dans les
étapes du processus lui-même. La variation ne pose aucun problème tant
que le processus présente les résultats désirés, lorsque la variation est faible
par rapport aux spécifications et quand elle est stable dans le temps.
Le but de Six Sigma est de réduire la variation des processus afin que le
produit ou le service corresponde aux exigences du client. Dans Six Sigma,
les spécifications du client constituent un concept clé. Les spécifications sont
les exigences mesurables imposées à un produit ou un service (en fonction
des besoins du client).
18
L'importance de la variation est illustrée par la citation suivante du gourou
de la qualité, William Edwards Deming:
Jack Welch, ancien PDG de General Electric, est l'homme qui a fait connaître
Six Sigma à l’échelle mondiale. Il explique l'importance de la variation de la
manière suivante :
19
Dans la courbe de Gauss de la fig. 0.1., on indique le nombre de mesures qui
tombent dans la spécification. Dans le chapitre sur les statistiques, nous
examinerons plus en détail la courbe de Gauss (distribution normale).
Figure 0.1
20
0.6 Défauts et niveau de Sigma
Quand une mesure tombe en dehors des spécifications, nous appelons cela
un défaut. Le produit n'est pas approuvé et doit être retravaillé ou, dans le
pire des cas, il est jeté. Le nombre de défauts dans un processus ou à la fin
d'un processus est une indication de la stabilité d'un processus et de la
qualité. Plus petite est la variation (écart-type), plus il y a d’espace par
rapport aux limites de la spécification, et plus la probabilité que des défauts
surviennent est faible.
Le nombre de fois qu’un écart-type (σ) s'inscrit entre la moyenne et les
limites de la spécification est une indication de la stabilité et donc de la
performance d'un processus. Nous appelons cela le niveau sigma (sigma
level en anglais), qui est également connu comme la valeur Z. Donc : Z=3 s'il
s'agit d'un processus avec un niveau sigma de 3, et Z=6 pour un processus
avec un niveau sigma de 6.
Quand on peut loger 6 fois un écart-type entre la moyenne et la limite de
spécification, nous l'appelons un processus 6σ ou un processus avec un
niveau sigma de 6. En exprimant la performance d'un processus de cette
façon, en nombre de sigmas s'intégrant entre la moyenne et la spécification,
nous pouvons comparer différents processus (et même des entreprises ou
des industries). Dans de nombreuses entreprises industrielles, comme
l'industrie automobile, on parle de « Capability » d'un processus. On utilise
alors souvent le terme Cpk, qui équivaut à 1/3 du niveau sigma, soit la
valeur Z = 3 x Cpk.
En résumé, nous sommes donc confrontés à deux notions qui sont souvent
source de malentendus :
D'une part l'ampleur de la diffusion, exprimée comme étant
l'écart-type du processus.
D'autre part, le niveau Sigma ou niveau Z, le nombre de fois
que l'écart-type du processus s'intègre entre la moyenne et la
limite de spécification. Dans le cas d'une spécification
bidirectionnelle, avec un processus présentant un niveau sigma
de 6, nous avons donc 2 x 6 = 12 écarts-types entre les limites
de la spécification.
21
Figure 0.2
Les termes suivants sont utilisés dans le cadre de Six Sigma comme unité
pour les défauts :
DPU : Défauts Par Unité, nombre (moyen) de défauts par produit. Ce
nombre peut donc être supérieur à 1.
Opportunités : nombre d'écarts pouvant survenir pour un produit (par
exemple : sur 1 formulaire de 10 champs, vous pouvez faire 10 fautes).
DPO : Défauts Par Opportunité (= taux de défauts) : nombre de défauts réels
divisé par le nombre de défauts possibles. Ce nombre ne peut pas être
supérieur à 1.
22
PPM : Parties Par Million (nombre d'unités par million qui s'écartent des
spécifications, à utiliser avec de très faibles quantités, où par exemple le
pour cent ne peut pas être utilisé comme unité).
Figure 0.3
23
Les défauts ont non seulement des conséquences sur l'output, mais
génèrent également et surtout des opérations et des coûts internes
supplémentaires pour les entreprises. Tous les frais qui sont encourus pour
identifier ou corriger les défauts sont appelés « coûts de la mauvaise
qualité » (COPQ – Cost Of Poor Quality). Toutes les opérations y afférentes
font partie de « l'usine cachée » :
Le RTY est une mesure importante dans le cadre de Six Sigma. Le rendement
de débit cumulé indique dans quelle mesure plusieurs étapes dans un
processus sont réalisées sans défauts. Ceci est illustré à la figure 0.4:
Figure 0.4
Voici un exemple pour illustrer les coûts associés à une mauvaise qualité :
Les coûts de l'usine cachée peuvent être clairement mis en évidence comme
suit, ce qui met également en lumière les économies potentielles.
25
Bref : l'effet de la mauvaise qualité a des conséquences profondes sur les
bénéfices de l'entreprise. Cela signifie qu’un projet Six Sigma qui est utilisé
pour réduire le nombre de défauts est un investissement rapidement
rentabilisé.
Pour illustrer que c'est plus facile à dire qu'à faire, cf. la figure 0.5, qui
représente la théorie de l'iceberg. Nous ne voyons qu'une partie des coûts
cachés au-dessus de la surface. Il va falloir travailler de manière méthodique
pour identifier les autres coûts cachés et en éliminer la cause !
Figure 0.5
26
0.8 L'organisation Six Sigma
Dans ce paragraphe, nous allons aborder l'organisation d’un programme Six
Sigma et les rôles au sein de cette organisation. La figure 0.6 donne un
aperçu :
Figure 0.6
Champion
27
• Faire en sorte que les économies des projets soient réalisées.
• Acceptation des résultats du projet.
• Faire en sorte que les sponsors/propriétaires de processus fassent
garantir les améliorations pour le long terme via les ceintures
noires/vertes.
Un Master Black Belt est, en tant que spécialiste Six Sigma, responsable de la
stratégie Six Sigma, de la formation et de la supervision des ceintures (Belts),
ainsi que du déploiement et des résultats de la structure Six Sigma. Ses
tâches et connaissances reprennent :
28
• Etre propriétaire du problème et, plus tard, de la solution.
• Etre propriétaire de processus.
• Etre propriétaire des résultats financiers du projet.
• Veiller aux moyens nécessaires pour le projet.
29
Yellow Belt (ceinture jaune)
Une ceinture jaune a reçu une formation de base à Six Sigma. Il comprend le
concept de Six Sigma, parle le « langage » Six Sigma et participe souvent à
des équipes d'amélioration.
D'une manière générale, les autres membres de l'équipe sont des employés
possédant des connaissances spécialisées du processus qui doit être
amélioré. Ils apportent leur expertise pour aider à résoudre le problème
dans le processus.
30
Measure Définissez le défaut et rassemblez des informations de base
(Mesurer) sur la performance du produit ou du processus. Définissez
les objectifs d'amélioration. Assurez un système de mesure
approprié.
Figure 0.7
31
(toolbox) remplie de méthodes et d'outils. La figure 0.7 en donne un aperçu
schématique. Les outils qui peuvent être utilisés dans les diverses étapes
sont décrits dans les chapitres suivants.
Les 12 étapes
Les principales étapes DMAIC sont souvent approfondies dans un
programme en 12 étapes. Pour réaliser les améliorations, l’approche se
concentrera de plus en plus sur les détails. Le client est au cœur de
l'approche :
Qu'est-ce que le client considère important par rapport à notre produit ou
service ? Que demande le client ?
Figure 0.8
32
y est apportée. Schématiquement, un projet Lean Six Sigma se présente
comme suit.(figure 0.8)
Le plan en 12 étapes comprend les étapes suivantes :
1 Sélection et champ du projet.
2 Définition du défaut.
3 Déterminer le Y et analyser le système de mesure.
4 Performance de base.
5 Préciser l’objectif d'amélioration sur la base de la performance de
base.
6 Identifier les causes possibles de la variation.
7 Déterminer les causes premières.
8 Déterminer la solution optimale.
9 Tester la solution.
10 Garantie et analyse du système de mesure.
11 Mise en œuvre et démonstration de l'amélioration.
12 Documentation du projet et transfert.
Figure 0.9
33
Les 12 étapes servent de fil conducteur pour le projet Six Sigma et seront
expliquées une par une dans les chapitres suivants.
• Les processus et les gaspillages sont moins tangibles dans les processus
administratifs.
• Historiquement, le secteur des services s’appuie moins sur la science et
la technologie.
• Le secteur des services est moins axé sur les processus.
• Il y a moins de collaborateurs avec un profil de gestion des processus
dans le secteur des services.
• Le secteur des services se concentre principalement sur des KPI
financiers.
• Il y a moins de données disponibles sur les processus dans le secteur
des services.
• Dans le secteur industriel, des termes tels que pièces et produit semi-
fini sont utilisés, tandis que, dans le secteur des services, il est
généralement question de transactions (qui peuvent également être
mesurées).
Cela ne signifie pas que les clients du secteur des services ne s'attendent pas
à un service fiable et cohérent.
• A une vision sur ses processus et sait comment ils ajoutent de la valeur
à la clientèle.
• A rendu la performance (et la variation) de ces processus mesurables.
34
• Utilise la performance et la variation comme point de départ pour
l'amélioration continue avec Lean Six Sigma.
• A créé une prise de conscience en matière de gaspillages et de valeur
client à tous les niveaux.
35
Le tableau ci-dessous fournit des directives pour un projet approprié ou
inapproprié :
Projet approprié Projet inapproprié
• Met l'accent sur les défauts et • Niveau de complexité
la variation élevé
• Axé sur la réduction des coûts • Large champ
ou sur l'amélioration de • Solution connue
l'efficience • Données difficiles à
• Convient pour l'application des obtenir
étapes DMAIC et des outils • Nécessite des
• Fruits à portée de main investissements élevés
• Des données historiques et • N’est pas lié aux objectifs
réelles sont disponibles stratégiques
Lancez le déploiement dans l'ensemble de l'organisation après les premiers
résultats et sélectionnez des projets qui sont liés aux objectifs stratégiques
de l’entreprise. Visez des projets de « rupture ». Lean Six Sigma ne résout
pas tous les problèmes. Le tableau suivant illustre quand Lean Six Sigma doit
ou ne doit pas être utilisé :
Utiliser Ne pas utiliser
• Pour atteindre un objectif • Quand il n'y a pas de
difficile ou résoudre un problèmes spécifiques à
problème épineux : résoudre
o Lié à la stratégie • Lorsque la solution au
d'entreprise problème existe déjà ou
o Qui a toujours existé est vraiment évidente
o Dont la solution n'est pas • Quand il n'y a pas de
encore connue processus incohérent
• Pour impliquer l'organisation devant être amélioré
dans l’identification et la
résolution des problèmes
• Pour obtenir une solution solide
et soutenue
• Pour développer la créativité et
l'esprit d'équipe
• Pour créer « l'appropriation »
en ce qui concerne les
problèmes et les solutions
36
Toutes les mises en œuvre de la méthode Lean Six Sigma n’ont pas été
couronnées de succès. Au fil du temps, des facteurs de succès et des pièges
ont été cartographiés. Cf. l'énumération suivante :
37
0.12 Exercices
Défauts Formulaire
Supposons que l'un des champs du
formulaire ci-contre soit mal rempli. Nom …………… Age …….
DMAIC
a. Quelles sont les phases de la structure d'amélioration Six Sigma ?
b. Quelles sont les 12 étapes en lesquelles ces 5 phases sont subdivisées ?
Qualité
a. Avec Six Sigma, la qualité du processus est améliorée. Quels sont les
deux concepts de base de cette qualité ?
b. Que signifient ces concepts ?
39
40
PARTIE 1 DEFINE (LA PHASE DE DEFINITION)
2 Définition du défaut
• Voix du Client
• CTQ projet et Y projet
• Charte projet & Kick-off
• Carte du processus
41
42
CHAPITRE 1 : SELECTION DU PROJET ET
CHAMP
1.1 Introduction
Dans ce chapitre, on détermine sur quel problème il faut travailler. Ce
problème est tiré des exigences du client et se traduit dans le résultat d'un
processus. On vous donne des techniques pour transformer une exigence
qualitative en un résultat de processus mesurable. En outre, vous
apprendrez à traduire le problème en un plan d'action, la charte du projet,
qui sert de ligne directrice pour l'exécution du projet.
43
Figure 1.0
44
Un projet n'est pas approprié si :
Figure 1.1
Dans la première étape, on identifie les éléments qui sont précieux pour
l'organisation.
45
On recherche la réponse à la question : « qu'est-ce qui est important pour
l'organisation ? ». Le terme qui est utilisé dans Six Sigma est la « Voix de ... »
ou « The Voice of... ».
46
Figure 1.3
Les projets Six Sigma peuvent affecter le compte de profits et pertes ainsi
que le bilan. Les différents éléments du bilan peuvent être le point de départ
de l'amélioration. La valeur ajoutée économique (EVA) est la base de la
subdivision. L'EVA est décrite plus en détail plus loin dans cet ouvrage. La
figure 1.4 donne une représentation schématique de cette subdivision.
47
Figure 1.4
• Chiffre d'affaires
• Coûts d'exploitation
• Frais généraux
• Actifs
• Fonds de roulement
Le tableau 1.0 illustre les opportunités d'amélioration qui peuvent être une
raison d’entamer un projet d'amélioration :
48
Opportunités • Combinaison • Nom de la marque
d’amélioration services/produits • Canal de distribution
liées au chiffre • Combinaison clients • Rationalisation produit
d’affaires • Qualité • Innovation
• Garantie
• Efficacité des ventes
Tableau 1.0
49
Voice Of the Customer (Voix du Client)
Processus Département
• Production • Production
• Traitement des commandes des • Service à la clientèle,
clients planification de la production
• Expédition du produit • Planification de la production,
• Facturation des clients entrepôt, distribution
• Vente du produit • Administration
• Développement de nouveaux • Ventes, Marketing, Production
produits • Engineering, R&D
• Embaucher des employés • HRM
50
Nous nous concentrons sur les processus, pas sur les départements.
Lorsqu’on réalise la cartographie des processus avec les parties concernées,
les goulots d'étranglement sont rapidement mis en évidence. Ces goulots
d'étranglement peuvent être utilisés comme point de départ pour un projet
Lean Six Sigma.
Figure 1.5
51
qui peuvent être réalisées avec relativement peu d'efforts passent à l’étape
suivante.
52
Ces courtes définitions du projet offrent une vision plus concrète du
potentiel d'amélioration de ces projets. Dans la dernière étape, un
classement des priorités est dressé sur la base du « Sixpack ».
53
Facteur Explication
54
3 Analysez les données et faites une liste des besoins cruciaux du client
(VOC).
4 Traduisez ces besoins des clients en CTQ.
5 Rédigez les spécifications pour ces CTQ.
55
• Commencez par les données réactives : faciles à obtenir, elles
fournissent une compréhension de base des besoins du client.
• Analysez les données des systèmes réactifs : essayez de découvrir des
modèles et des tendances (par exemple dans les plaintes des clients).
• Etudiez le comportement du client : de nombreux clients ne donnent
pas de feed-back, mais adoptent eux-mêmes des mesures et changent
leur façon d'agir vis-à-vis de votre entreprise. Pensez par exemple à la
rétention de clients.
56
1.3.2 Diagramme d’affinité
Le diagramme d'affinité est utilisé lors de la collecte de grandes quantités
d’informations orales ou écrites (idées, opinions, problèmes) et il les
organise en groupes en fonction de relations naturelles.
Figure 1.7
57
1.3.3 Analyse de Kano
Lors de la définition de ce que le client considère comme important, il y a un
risque que des points jugés évidents pour le client ne soient pas
mentionnés, car le client suppose implicitement qu'ils sont ou seront réglés.
C'est un risque réel, parce que le client sera très mécontent si cela s'avère
ne pas être le cas (par exemple une voiture sans freins). L'analyse de Kano,
inventée par le Japonais Kano, cartographie les exigences exprimées et
tacites, ce qui en fait un outil utile pour obtenir une meilleure
compréhension de la voix du client. Dans le diagramme de Kano, ces
différents souhaits sont regroupés en besoins de base (« obligatoires »),
besoins de performance (« souhaités ») et besoins d’excitation
(« attrayants »). En utilisant ces catégories, le diagramme de Kano nous
permet de travailler sur les bons CTQ. Bien qu'il soit possible d'améliorer la
satisfaction des clients et de gagner des clients en travaillant sur les besoins
d’excitation, en négligeant les besoins de base, vous allez perdre des clients
plus rapidement que vous n’allez les acquérir par les besoins d’excitation.
Reverse (« inverse ») indique que certaines spécifications supplémentaires
peuvent aussi avoir un impact négatif sur la satisfaction. Par exemple dans le
cas d'un smartphone : des applications ou des boutons supplémentaires
peuvent rendre le téléphone plus attrayant, mais trop de boutons et des
applications inutiles peuvent aussi le rendre complexe et peu pratique.
58
Figure 1.8
Figure 1.9
59
1.4 Exercices
Sélection du projet
Quelles sont les 5 étapes qui constituent une bonne sélection de projet ?
Voix du …
a. Il existe différentes « voix » qui disent quelque chose sur un projet.
Nommez-en trois.
b. Quelle voix est la plus importante ?
VOC
Quelles sont les 3 catégories essentielles auxquelles on peut presque
toujours ramener la Voix du Client ?
Le modèle de Kano
Le modèle de Kano propose un certain nombre de catégories qui disent
quelque chose sur la VOC par rapport au produit ou au service. Classez les
produits/services ci-dessous sur les axes du modèle de Kano (voir la
figure 1.8).
Attrayant : Souhaitable :
Indifférent : Obligatoire :
60
i. La peinture répond à toutes les exigences obligatoires pour un label
européen.
j. A compter du 1er janvier, vous n'avez plus besoin de demander de
permis pour abattre des arbres sur votre propriété.
61
62
CHAPITRE 2 : DEFINITION DU DEFAUT
2.1 Introduction
Dans ce chapitre, nous nous focalisons davantage sur le champ, et le
problème ou l’exigence du client sera traduit(e) en exigences concrètes
quant à la qualité du processus. En outre, un choix sera fait concernant les
exigences qui seront retenues pour être traitées dans le projet
d'amélioration. En termes Lean Six Sigma, la voix du client est traduite en
CTQ.
63
Par exemple :
64
2.2.2 Quality Function Deployment
Un autre outil possible est le QFD, qui signifie « Déploiement des Fonctions
de Qualité », souvent appelé aussi la Maison de la Qualité (HoQ – House of
Quality). Il s'agit d'un outil qui peut être utilisé pour classer les CTQ
potentiels sur la base de leur contribution aux principales VOC définies
précédemment. Vous recevrez un article numérique sur la façon dont le QFD
peut vous aider à définir le CTQ.
5. Déterminer les spécifications des CTQ
65
manière structurée et maintenir le projet gérable, un plan de projet
compact est établi. Dans Lean Six Sigma, c'est ce qu'on appelle la charte de
projet. La charte de projet clarifie l'objectif du projet et la démarche. Elle
oriente l'équipe, garde l'équipe sur la bonne voie vers l'objectif
d'amélioration et fournit une feuille de route pour l'exécution du projet. En
outre, la charte de projet est un contrat entre le client et la ceinture verte
ou noire qui dirige le projet. Le client est généralement appelé « sponsor ».
Il est le propriétaire du processus (et donc du problème) au début du projet
et de la solution à la fin de celui-ci. Ce sponsor est également la personne
qui met les personnes et les ressources nécessaires à disposition.
Une charte de projet Six Sigma décrit toujours les éléments suivants :
L'Annexe 5 contient un exemple des sujets inclus dans une charte de projet.
Dans les paragraphes suivants, nous discutons de la façon de mettre en
place une charte de projet.
66
2.3.1 Autorisation du projet
Dans la partie d’approbation du projet de la charte du projet, le lancement
du projet est formalisé. Sur la base d’une brève description du projet et des
avantages du projet en termes de qualité, délai de livraison, coûts et
satisfaction du client, on demande l’approbation des clients et des
principales parties prenantes. Bien que cette partie se trouve au début de la
charte, elle est généralement complétée lorsque la charte est finalisée, donc
en dernier lieu.
L'Annexe 5 reprend une charte de projet avec explication des champs.
L'objectif de l'approbation formelle est de créer un engagement chez le
client et de s'assurer que les ressources et les moyens sont mis à la
disposition du projet. Qui doit signer dépend de la structure de compétence
de l'organisation et de la position de Lean Six Sigma au sein de
l'organisation. En règle générale, les personnes suivantes sont celles qui
autorisent le projet :
• Définition du problème
La définition du problème fournit une description de la situation
actuelle basée sur les faits. Cette description indique ce qui va mal, où
et quand le problème est apparu, l'ampleur du problème et comment le
problème se manifeste. La voix du client fournit des indications pour la
définition du problème.
• Objectif
L'objectif fournit une description de la situation future souhaitée, après
l'achèvement du projet. L'amélioration de la performance est quantifiée
67
dans le cadre de l'objectif. Dans la première version de la charte du
projet, cet objectif sera une estimation exprimée en termes de CTQ. A
mesure que le projet avance et que l'on comprend mieux les données et
les opportunités, l'objectif sera ajusté et le Y projet sera utilisé. Avant la
phase d'analyse, l'objectif sera quantifié sur la base de la performance
de base (voir le paragraphe 4.3). Exprimez l'objectif numériquement en
termes de niveau de performance souhaité et évitez de formuler des
solutions et des causes dans l'objectif.
• Le CTQ projet et le Y projet
L'exigence de qualité du processus sous la forme du CTQ est indiquée
pour orienter le projet. Dans la phase suivante, le CTQ est concrétisé
sous la forme d’un output de processus clair et mesurable: le Y projet
(cf. chapitre 3 : Mesurer)
• Limites du projet
Les limites du projet indiquent les frontières du projet. Il est important
d'indiquer ce qui est et n'est pas inclus dans le projet. Pensez, par
exemple, aux clients, segments, départements, lieux et éléments du
processus qui sont et ne sont pas inclus dans le projet.
• Limitations du projet
Les limitations du projet concernent les marges de manœuvre que vous
avez pour traiter le processus. Dans cette partie, vous indiquez, souvent
en collaboration avec votre sponsor, le cadre dans lequel la solution
doit s'inscrire. Souvent, il existe des restrictions à l'égard de la solution.
Pensez par exemple aux procédures existantes ou à la législation, aux
technologies disponibles, aux obligations contractuelles. Outre les
restrictions à l'égard de la solution, il peut aussi y avoir des restrictions
par rapport à la mise en œuvre de la solution, par exemple de la
résistance au changement ou par rapport à la culture de l'organisation.
68
2.3.3 Histoire du processus
L'histoire du processus contient une brève description de l'origine et du
développement du processus, en plaçant le processus dans un contexte
historique. Comprendre les changements du passé peut aider pour les
changements futurs.
69
de l'objectif et de la façon dont cet objectif sera réalisé. Un kick-off dure
environ deux heures. Ci-dessous, un ordre du jour indicatif pour le kick-off :
1. Introduction 15 min.
2. Explication de Lean Six Sigma 15 min.
3. Déterminer le mandat de l’équipe 15 min.
4. Déterminer les règles de réunion 10 min.
5. Déterminer les rôles et responsabilités 20 min.
6. Déterminer le plan de feedback et de communication 10 min.
7. Wrap up : définir les actions clés, les avantages et
les préoccupations 15 min.
Dans la première étape, vous expliquez qui vous êtes et pourquoi les
membres de l'équipe ont été invités. Dans la deuxième étape, vous
expliquez en des termes généraux ce qu’est Lean Six Sigma. Dans la
troisième étape, vous discutez du problème que vous allez tous essayer de
résoudre, ainsi que ce que vous pouvez et ne pouvez pas influencer (le
mandat que vous avez défini avec votre sponsor).
En outre, vous discutez des règles de réunion ainsi que des rôles et
responsabilités des membres de l'équipe et des vôtres au sein de l'équipe de
projet. Puisqu'une bonne communication entre l'équipe et l'organisation est
d'une importance cruciale pour l'acceptation du résultat futur, on décidera
lors de la réunion de lancement comment organiser cette communication
via le plan de communication.
Enfin, vous aborderez les actions convenues et vous terminerez avec les
« tops & tips » (avantages et préoccupations) de la réunion.
En plus de l'équipe d'amélioration, les clients et les parties prenantes
immédiates de l'organisation jouent également un rôle important dans la
70
Figure 2.0
réussite du projet. Pour conclure des accords clairs, les rôles et les
responsabilités doivent être clairement définis. La matrice RACI est un outil
utile à ce niveau.
RACI signifie :
• Responsible : la personne qui s'assure qu’une tâche ou étape est
réalisée.
• Accountable : la personne responsable du résultat final de la tâche ou
de l’étape.
• Consulted : personne consultée au sujet de la tâche ou de l'étape avant
qu'une décision soit prise.
• Informed : personne qui est informée d'une décision relative à la tâche
ou à l'étape après que la décision a été prise.
Dans la matrice, on indique sur l'axe Y quels sont les agents concernés par le
parcours. Sur l'axe X, on indique quelles sont les tâches ou quelles étapes ou
quels « livrables » (deliverables) sont fournis. Aux intersections, le rôle de
chaque agent (R, A, C ou I) est indiqué pour chacune des étapes. De cette
façon, tout le monde sait ce que l'on attend et qui est responsable de quoi.
71
signifie que, à leur tour, elles peuvent influer sur le cours du projet. Pour y
répondre adéquatement et s'assurer que ces forces restent gérables, une
évaluation des parties prenantes est préalablement effectuée.
Le but de l'évaluation des parties prenantes est surtout d'obtenir une vision
claire permettant de savoir si certaines parties prenantes requièrent une
attention particulière pour les motiver ou les garder à bord. Un exemple
d'évaluation de partie prenante est mis à disposition par voie numérique. Il
peut aussi être utilisé comme modèle pour compléter votre projet.
Les parties prenantes qui peuvent influencer le processus ou être
influencées par celui-ci sont reprises dans la charte de projet. L'évaluation
des parties prenantes, dans laquelle il est indiqué comment les différentes
parties prenantes considèrent le projet (positivement ou négativement,
avec un score), est décrite dans un document distinct et ne fait pas partie de
la charte du projet. La charte du projet est un document de communication
visant les différentes personnes impliquées. L'évaluation des parties
prenantes, qui est une évaluation subjective de la résistance possible au sein
des parties prenantes, n'appartient pas à la charte, mais c’est une
information importante pour la ceinture noire ou la ceinture verte, afin
qu'ils puissent travailler à l'acceptation des résultats.
Figure 2.1
72
La ligne de temps du projet indique la planification du projet sur la base des
jalons les plus importants. Les phases du projet DMAIC sont les jalons fixés
dans la planification. Au début du projet, une planification initiale est
réalisée. La principale incertitude à l'égard de la solution se produit pendant
la phase Improve, au cours de laquelle la solution est mise en œuvre, parce
que ni la solution ni le délai de mise en œuvre ne sont connus au début du
projet. Puisque lors de ces phases, il y a beaucoup d'incertitudes concernant
ce qui doit se passer et combien de temps cela prendra, nous ne rendons
pas la ligne du temps inutilement complexe ou détaillée. Pour un projet
DMAIC de 4-6 mois, vous pourriez prendre environ un mois par phase.
Lors de l'utilisation de la méthode DMAIC, il est de coutume d'organiser une
Toll-gate Review à la fin de chaque phase. Une Toll-gate Review est une
réunion formelle entre l'équipe de projet et le sponsor (client). L'objectif de
cette réunion est de vérifier si le projet est toujours dans les délais et si
l’objectif visé par le projet est toujours réalisable. La review se termine avec
une décision go/no-go concernant le lancement de la phase suivante. Au
cours de la Toll-gate review, les questions suivantes sont abordées :
73
2.3.7 Résultats
La dernière partie de la charte de projet décrit les résultats du projet
attendus, qui peuvent être répartis en résultats tangibles et intangibles. Les
résultats financiers quantifiables sont considérés comme des résultats
tangibles. Voici quelques exemples de résultats intangibles : l'amélioration
de la satisfaction du client, les coûts évités ou l’amélioration du moral.
Mentionnez ces résultats intangibles dans la charte de projet. Dans le reste
de ce paragraphe, nous allons nous concentrer sur les résultats tangibles.
Les résultats financiers apparaîtront plus clairement au cours du projet,
parce que les améliorations réalisées deviennent plus claires.
Il y a au moins trois moments formels auxquels les résultats financiers sont
évalués et définis dans la charte de projet :
1. Dans la phase Define : à l'étape 2, lors de la définition du problème : les
résultats financiers sont une estimation basée sur l'objectif.
2. Dans la phase Measure : après l'étape 5, Prestations de base et objectif
d'amélioration : on a maintenant une vision sur la performance du
processus et l'écart par rapport à la situation souhaitée. Les objectifs
peuvent maintenant être définis plus précisément en termes de Y
projet. Sur la base de cet ajustement, il est possible d'estimer les
résultats financiers avec plus de précision.
3. Dans la phase Improve après l'étape 8 : la définition de la (des)
solution(s) : sur la base des solutions, il est possible d'estimer leurs
coûts de mise en œuvre. Cette information peut être utilisée pour faire
une analyse de rentabilité (business case). Quels sont les bénéfices
après déduction des coûts ? Cette analyse de rentabilité peut jouer un
rôle important dans la décision go/no go concernant la mise en œuvre.
74
Faire une bonne analyse de rentabilité est une compétence en soi. Il est
recommandé d'impliquer un expert, comme le contrôleur financier, dans la
réalisation de l'analyse de rentabilité.
• Adaptation de l'équipement
• Adaptations logicielles
• Nouvelles procédures et instauration de celles-ci
• Perte de capacités pendant la mise en œuvre
75
Figure 2.2
Terminologie :
EBITDA : Bénéfice avant intérêts, impôts, Manière de mesurer les
dépréciation, amortissement bénéfices bruts avant
(Earnings Before Interest, Taxes, déduction de divers postes
Depreciation, Amortization) (notamment les impôts et les
amortissements).
NEBIT : Bénéfice net avant intérêts et Bénéfices d'exploitation
impôts (Net Earnings Before avant déduction des impôts
Interest & Taxes) et intérêts.
NOPAT : Bénéfice net d'exploitation Bénéfices d'exploitation nets
après impôt (Net Operating après déduction des impôts.
Profit After Tax)
WACC : Coût moyen pondéré du capital Indice moyen des coûts du
(Weighted Average Cost of capital, nombre qui exprime
Capital) les coûts encourus par une
société pour le capital avec
lequel la société est financée
(souvent 8-10%)
EVA : Valeur ajoutée économique Les bénéfices annuels après
76
(Economic Value Added) impôts et après déduction
des coûts liés au projet.
VC : Création de valeur (Value Nombre permettant de
Creation) calculer les bénéfices à long
terme d'un projet par rapport
à la valeur actuelle.
Les projets Lean Six Sigma peuvent avoir un effet à la fois sur les bénéfices
de l'entreprise et sur le capital. L'EVA exprime le bénéfice et l’utilisation du
capital, et, ce faisant, apporte un soutien financier pour la valeur ajoutée
(court terme) d'un projet. On utilise la création de valeur (Value Creation)
pour déterminer la valeur à plus long terme. Les EVA futures sont
actualisées par année par rapport au présent. Voir l'exemple de la figure 2.3.
Figure 2.3
77
Tableau 2.0
78
• La période au cours de laquelle la performance actuelle et les coûts de
la mauvaise qualité ont été calculés comme base de référence pour
déterminer les économies.
• Les hypothèses sur lesquelles les calculs sont fondés, par exemple s’il y
a assez de demandes pour les produits / services supplémentaires qui
pourraient être produits suite à ce projet.
79
• Des lignes de connexion ou des flèches sont utilisées pour relier les
activités et, ce faisant, on indique l'ordre et le flux à travers le
processus.
• La carte du processus illustre la situation actuelle (as-is) et non la
situation future souhaitée (to-be).
• La carte de processus de haut niveau décrit généralement le processus
en 4-7 étapes.
La méthode que nous utilisons généralement dans Six Sigma pour créer une
carte de processus est le SIPOC. SIPOC signifie :
S Supplier Fournisseur : personne ou entreprise qui fournit un input à
votre processus.
I Input Apport : matériaux, ressources et données qui sont
nécessaires pour l’exécution du processus (composé de
noms).
P Process Processus : un ensemble d'activités qui nécessitent un ou
plusieurs types d'input et qui créent un output qui a de la
valeur pour le client (composé de verbes).
O Output Résultat : les produits ou services tangibles qui sont le
résultat d'un processus - qui devraient satisfaire les besoins
du client (composé de noms).
C Customer Client : une personne ou une organisation qui reçoit
l'output de votre processus. Peut être interne ou externe.
80
Figure 2.4.
81
Figure 2.5
Pour plus d'informations sur la manière de mettre en place une VSM, nous
vous renvoyons à notre cours consacré au « Lean dans la pratique » ou à
l'ouvrage « Apprendre à voir » de Rother et Shook.
82
Exemple de VSM :
Figure 2.6
2.6 Exercices
Résultats
Après la définition de la solution optimale, l'équipe du projet s’accorde sur
un chiffre d'affaires supplémentaire potentiel de 1.000.000 €. C'est une
prévision fantastique, mais les frais nécessaires devront pour cela être
engagés chaque année. Ces frais s'élèvent à € 400.000. Les impôts sur les
bénéfices pour le gain supplémentaire sont fixés à 20%.
L'équipe du projet se prépare à la Toll-gate review afin de déterminer si le
projet peut se poursuivre ou non. A cet effet, les informations présentées ci-
dessus sont collectées pour calculer l'EVA. Que vaudra l'EVA ?
83
o EVA € 420.000
o EVA € 480.000
o EVA € 510.000
o EVA € 560.000
84
Le stock associé à la machine XYZ a une valeur de 540.000 €, dont 80%
sont situés en amont de la machine.
L'amélioration de la fiabilité entraîne une réduction du stock nécessaire
pour la machine de 50%.
Le WACC est de 10%.
a. Quelle est la valeur de la réduction des stocks ?
b. Que vaut l'EVA sur la première année ?
EVA d’un investissement évité
Exemple de projet :
« L'augmentation de la vitesse de production d'une presse d'impression
signifie que nous n'avons pas besoin d'acheter une nouvelle machine. »
La vitesse du processus actuel est de 10 mètres / seconde.
Les ventes devraient augmenter de 25% l'année prochaine.
L'augmentation de la vitesse de 25% signifie que nous n'avons pas
besoin d'acheter la cinquième machine budgétisée.
La production totale actuelle = 4 machines * 10m/s/machine = 40 m/s.
25% d'augmentation de la vitesse de la machine = 10 m/s = 1 machine.
1 machine coûte 500.000 €.
Le WACC est de 10%.
Que vaut l'EVA sur la première année ?
SIPOC
Supplier Input Process Output Customer
85
86
PARTIE 2: MEASURE
Après avoir terminé la phase de mesure, les éléments suivants sont livrés :
• Y Projet
• Plan de collecte de données
• Analyse du système de mesure
• Performance de base
• Objectif d'amélioration
87
88
CHAPITRE 3 : DETERMINER LE « Y » ET
ANALYSER LE SYSTEME DE MESURE
3.1 Introduction
Dans le dernier chapitre, nous avons décidé quel problème nous allions
résoudre et quel résultat de processus devait être amélioré (CTQ). Dans ce
premier chapitre de la phase de mesure, nous allons rendre ce résultat de
processus mesurable de manière univoque et déterminer quel système de
mesure nous allons utiliser pour mesurer les résultats du processus.
89
3.2.1 Diagramme arborescent
Le diagramme arborescent vous permet de subdiviser le CTQ en éléments
concrets plus petits. De cette façon, un objectif ou une idée générique est
ramené à un sous-objectif spécifique. Les étapes sont les suivantes :
Figure 3.0
90
3.2.2 Diagramme de processus détaillé
Dans la phase de définition, un SIPOC est abordé : un diagramme de
processus dans les grandes lignes. De façon similaire au diagramme
arborescent, on travaille du générique au spécifique. Pour faire un bon
diagramme de processus, vous avez besoin de l'expertise des personnes
impliquées dans le processus. Le diagramme de processus est un effort
d'équipe. En plus de l'expertise et de l'expérience des personnes impliquées,
il existe d'autres contributions qui peuvent être utilisées, comme les
manuels, les spécifications du produit ou des diagrammes de processus
existants. D'ailleurs, une Value Stream Map peut aussi être utilisée pour
obtenir un Y approprié ; une Value Stream Map est effectivement un
diagramme de processus détaillé auquel des informations supplémentaires
ont été ajoutées.
Organisez un brainstorming avec l'équipe pour créer un diagramme de
processus détaillé. Assurez-vous que le processus réel est décrit ; pas le
processus que vous pensez voir exister ou le processus tel qu'il devrait
exister.
Le diagramme de processus détaillé vous donne une vision sur la création du
produit ou service, et ainsi sur les exigences y afférentes sous la forme d'un
CTQ. Après la création du diagramme de processus détaillé, consultez votre
sponsor (avec l'équipe). Ensemble, vous sélectionnez une unité mesurable,
qui, en étant améliorée, conduira à un meilleur processus. Cela étend
encore le « champ » du processus, et met généralement l'accent sur l'output
mesurable (par exemple le délai de livraison) d'une ou de plusieurs étapes
du processus. Les autres étapes sont donc « hors champ ».
91
Figure 3.1
3.2.3 L'analyse de Pareto
L'analyse de Pareto est utilisée pour ordonner les facteurs en fonction de
leur importance (fréquence d’apparition). Cela donne un aperçu des
facteurs qui ont le plus d'impact. Dans l'analyse des causes et la séparation
entre les causes possibles et les causes premières de la phase d'analyse,
l'analyse de Pareto est aussi souvent utilisée. Une règle de base veut que
20% des causes soient responsables de 80% des conséquences. Ce principe
est connu comme étant le principe de Pareto, souvent désigné comme la
règle des « 80/20 ».
L'analyse de Pareto est illustrée graphiquement dans un diagramme de
Pareto : c'est un diagramme à barres descendant de gauche à droite dans
l'ordre des grandeurs. Le Pareto comprend les facteurs d’influence d'un
output donné, classés sur la base de leur impact sur cet output. Cet effet est
exprimé numériquement sur l'axe Y à gauche. Sur l'axe des Y à droite, on
indique le pourcentage cumulé des facteurs d'influence (de gauche à droite),
afin de visualiser directement l’intersection avec, par exemple, la barre des
80% (cumulés).
100
2000
80
1500
Total 60
%
1000
40
500
20
0 0
Complaint Cockroaches Too cold Lighting Wardrobe Noise after 11 pm
TV reception Other
Total 962 505 350 127 97 83 101
Percent 43,2 22,7 15,7 5,7 4,4 3,7 4,5
Cum % 43,2 65,9 81,7 87,4 91,7 95,5 100,0
Figure 3.3
• Faites une liste de tous les Y projet (utilisez, par exemple, le diagramme
arborescent pour inventorier les Y).
• Déterminez les critères de sélection pour peser les Y :
o Associés au CTQ.
94
o Mesurabilité, facilité d'obtention des données.
o Impact sur l'organisation.
o Disponibilité des personnes.
o Coûts des écarts (coût de la mauvaise qualité).
• Déterminez les critères de pondération des différents Y.
Par exemple, en utilisant une échelle 1-3-5 pour peser la liaison entre le
Y et les critères de sélection.
• Additionnez les scores de chaque Y pour arriver à un score total.
• Classez les Y projet par ordre décroissant d'importance pour identifier le
Y le plus approprié.
Tableau 3.0
Y projet Directe- Prêt Impact sur Lié Total
ment dans les l’organisation au
mesurable 6 mois CTQ
Poids de la voiture 5 1 1 5 12
Résistance à l’air 1 1 1 5 8
Style de conduite 3 5 5 5 18
Frottements 3 3 5 5 16
Le style de conduite est avancé comme le Y avec le score le plus élevé sur les
critères, et donc comme le Y sur lequel il faudrait d'abord travailler. Outre la
matrice des priorités, il existe d'autres techniques qui peuvent être utilisées
pour classer les différents facteurs, comme la matrice de Pugh et l’AHP
(Analytical Hierarchical Process). Ces techniques seront abordées au
chapitre 8.3.
96
3.3.1 Plan de collecte de données
Le plan de collecte de données est un plan qui prévoit ce qui sera mesuré,
comment ce sera mesuré et par qui. Le format du plan de collecte de
données peut être utilisé tout au long du cycle DMAIC :
• Interviews
• Etudes
• « Work Order Travelers » (documents qui voyagent, comme les ordres
de commande)
• Feuilles de données
• Cartes de contrôle
• Fichiers personnels
• Fichiers de données, rapports du système ERP
98
Figure 3.4
99
termes de temps que d'argent. Il est donc bon de recueillir plus de données
que celles nécessaires pour Y. Les influences possibles sur le Y sous la forme
de X d'input (par exemple les matières premières, les formulaires de
demande), de X de processus (ex. boutons de la machine ou les réglages
dans le processus) et de X de stratification (cf. ci-dessous) peuvent déjà être
reprises à ce stade. Le diagramme arborescent, le diagramme de processus
et le QFD peuvent être utilisés à cette fin. Le diagramme « cause & effet »
est une autre technique qui peut être utilisée pour identifier des X. Cette
technique est décrite dans le chapitre 6.
Les X de stratification sont des facteurs qui permettent d'identifier des sous-
groupes qui varient en fonction de leur performance. Par exemple, les
résultats globaux des ventes sur une période donnée peuvent être répartis
en fonction de la saison. Lorsque vous vendez des patins à glace ou des
décorations de Noël, la « saison » sera donc un facteur de stratification.
Le résultat de mesure peut porter sur le Y d'output et sur les facteurs dans le
processus : les X de processus (ex. les boutons ou les paramètres), les X
d'input du processus (ex. matières premières, demandes), ou les X de
stratification. L'output est traité dans ce chapitre. Dans les chapitres
suivants, les X vont jouer un rôle central quand il sera question des
possibilités d'amélioration. Dans ce paragraphe, nous discutons brièvement
des X de stratification :
102
Figure 3.6
Types de données
Intervalle
Catégorie
Moyenne
Médiane
rapport
Ordre
Mode
Type
• L’ instrument de mesure
• La résolution
• La population de mesure ou son échantillon
Instrument de mesure
Les instruments de mesure sont disponibles dans différents types et tailles.
Un chronomètre pour mesurer le temps, l'observation afin de déterminer
combien de personnes sont dans une file d'attente à la caisse d’un
supermarché, ou un lecteur de codes barres pour déterminer combien
d'éléments d'un produit ont été vendus. Le type d'instrument de mesure
dépend beaucoup de ce que vous voulez mesurer. Dans le cas des services,
les gens comptent souvent combien de fois quelque chose se produit. Dans
ce cas, la personne qui fait le décompte est notre « instrument de mesure ».
104
Si nous avons une base de données d’où nous obtenons nos informations à
travers des requêtes, vous pouvez considérer la requête qui est faite comme
notre instrument de mesure.
Résolution de mesure
La résolution de mesure est la précision avec laquelle un instrument de
mesure effectue la mesure. Pour mesurer le temps lors d'un marathon, les
minutes et les secondes seront suffisamment précises, tandis que pour le
100 mètres, même le centième de seconde peut parfois ne pas être assez
précis. La précision qui est nécessaire est étroitement liée à l'objectif à
atteindre à l'aide de la mesure. La règle de base qui est utilisée est que
l'instrument de mesure que vous utilisez doit être capable de diviser le sujet
que vous mesurez en au moins 10 sections distinctes. Soit : si vous voulez
mesurer quelque chose en mètres, l'instrument de mesure doit pouvoir
mesurer en décimètres (ou centimètres). C'est ce qu'on appelle la « règle
des 10 seaux ».
Echantillon
Pour être en mesure de tirer des conclusions à partir d'une mesure, il n'est
pas nécessaire de mesurer l'ensemble de la population. Souvent, un
échantillon suffit pour dire quelque chose à propos de la population dans
son ensemble. L'échantillon d'une population est défini comme suit :
Une collecte partielle ou une partie qui est représentative d'une population
plus importante, qui peut être étudiée dans le but de se former une opinion
et de prendre des décisions qui sont fondées sur des faits.
Tableau 3.2
107
Aléatoire - Sélectionnez chaque n-ième individu de la
systématique population (en supposant que la population est
ordonnée d'une manière qui n'est pas liée à ce
que vous mesurez).
- Exemple : sélectionnez toutes les 50e questions
client des 5000 questions qui ont été posées ce
mois-ci.
108
fondons le projet d'amélioration, avoir un système de mesure précis est
important. Cela peut être déterminé par l'analyse du système de mesure.
Figure 3.7
Un bon système de mesure est crucial pour un projet réussi. Ne pas réfléchir
suffisamment au système de mesure peut être un piège. Ne poursuivez pas
le projet tant que vous n’êtes pas certain d'avoir un système de mesure
adéquat. Dans un environnement industriel, vous pourriez souhaiter réaliser
un projet DMAIC distinct pour obtenir une bonne mesure, ce qui en soi peut
109
conduire à une amélioration importante du processus et permet de réaliser
d'autres projets d'amélioration qui dépendent de cette mesure.
Dans la figure 3.8, les différents types de variation sont représentés. Ces
types seront plus amplement commentés dans les paragraphes suivants.
Figure 3.8
Les différents types sont analysés point par point pour déterminer si le
système de mesure sélectionné est acceptable pour la mise en œuvre de la
mesure ou non. La figure 3.9 donne une représentation schématique de
cette feuille de route :
Figure 3.9
110
3.4.1 Résolution, exactitude, stabilité et linéarité
Résolution
Exactitude
111
1. Sélectionnez au moins 3 échantillons standard avec des valeurs connues
qui se situent dans la zone qui se produit fréquemment en pratique.
2. Utilisez la méthode de mesure pour obtenir plusieurs mesures.
3. Calculez les différences entre les mesures et les valeurs réelles.
4. Tracez les différences (axe Y) vs les valeurs « réelles » (axe X).
5. Evaluez la précision : lorsque la mesure est exacte, la valeur sera
distribuée au hasard le long de la ligne horizontale (Y = 0).
Stabilité
Linéarité
Figure 3.10
113
Correction de l’exactitude, de la stabilité et de la linéarité des instruments
de mesure
3.4.2 Précision
La dernière étape de l'analyse du système de mesure consiste à déterminer
la précision de l'instrument de mesure (« Gage »). A cette étape, la
reproductibilité et la répétabilité de la mesure jouent un rôle central. En
anglais, on parle de Repeatability et de Reproducibility (R&R). La répétabilité
est aussi qualifiée de « fiabilité » dans certaines sources.
Une mesure est répétable lorsque le même échantillon mesuré par le même
opérateur, dans les mêmes conditions, donne au cours de la répétition de la
mesure le même résultat que la première mesure.
&
= é
é é +
é
114
La figure 3.11 illustre la différence entre la répétabilité et l’exactitude.
Figure 3.11
115
humaine l'instrument de mesure, ou à l'enregistrement des
moments d'une autre manière.
Suivez les étapes suivantes pour faire un plan de collecte de données afin
d'analyser le système de mesure :
116
• Sélectionnez au moins deux opérateurs qui feront chacun plusieurs
mesures pour chaque élément.
Il doit s'agir d'opérateurs qui réalisent normalement ces mesures. Les
opérateurs qui effectuent ces mesures participent de préférence à
l'étude.
• Déterminez combien de mesures (répétitions) chaque opérateur fera.
• Au moins deux mesures de chaque élément pour chaque opérateur. En
outre,la formule suivante est utilisée pour déterminer le nombre de
mesures∶
• Laissez le premier opérateur mesurer tous les éléments une fois dans
un ordre aléatoire.
• Assurez-vous que les autres opérateurs ne voient pas les résultats du
premier opérateur.
• Laissez le deuxième opérateur mesurer tous les éléments une fois dans
un ordre aléatoire.
• Continuez jusqu'à ce que tous les opérateurs aient mesuré tous les
éléments : l'essai 1 est terminé.
• Répétez les étapes précédentes pour toutes les répétitions souhaitées
(répéter au moins une fois, de préférence avec au moins un jour
d'intervalle).
• Assurez-vous que les éléments ne soient pas reconnaissables pour les
opérateurs (à tour de rôle).
117
3. Calcul et analyse
Créez une feuille de calcul dans Minitab (Stat > Quality Tools > create Gage
R&R worksheet) pour entrer les données obtenues à l'étape précédente. Les
titres des colonnes suivants peuvent être utilisés :
Figure 3.12
118
Allez dans Minitab: Stat -> Quality Tools -> Gage Study -> Gage R&R
(Crossed)
Figure 3.13
ANOVA est préférée en tant que méthode d'analyse, car elle calcule aussi
les éventuelles interactions. Ensuite, allez dans « Options ».
Figure 3.14
119
Complétez la tolérance (=USL-LSL) ou la spéc. sup. et inf. Laissez 6 dans
« Study variation » (ce qui signifie que nous voulons inclure 99,7% de la
variation de la mesure à l'étude. Si nous préférons 99% de la variation, nous
fixons le nombre à 5,15 écarts-types).
Résultat :
Tableau 3.4
Terme : Explication :
Total jauge R&R Il s'agit de la variation totale due à la
répétabilité et la reproductibilité.
Répétabilité La variation due à la répétabilité.
Reproductibilité La variation due à la reproductibilité.
Opérateur La variation due aux différences entre
120
opérateurs.
Pièce à pièce Variation réelle due aux pièces.
Variation totale La variation totale observée dans
l'ensemble de l'étude (les pièces + le
système de mesure).
VarComp La colonne exprimant la variation en
termes de variance des composants.
%Contribution (ou La contribution en % de la variance
VarComp) susmentionnée des composants.
Variation de l'étude Les composants de la variation de l'étude,
(study variation) cette fois exprimés en termes d'écarts-
types, pas de variance.
%Tolérance (SV/Toler) 6 fois l’écart-type, divisé par les tolérances
indiquées.
% contribution
121
Figure 3.15
% tolérance
Figure 3.16
122
Le tableau présenté ci-dessous donne les lignes directrices pour évaluer le
système de mesure sur la base des critères mentionnés ci-dessus. Évaluez
les lignes directrices dans le contexte de votre projet et de votre processus :
Tableau 3.5
Puisqu'il est plus facile de faire des mesures précises de pièces physiques
plutôt que de flux continus, et puisque la marge d'erreur est généralement
plus critique dans le cas des pièces physiques, une distinction est faite entre
la mesure des processus chimiques et la mesure des pièces.
Figure 3.17
125
Lorsque l'opérateur est la principale source de variation (reproductibilité),
vous pouvez résoudre ce problème par la formation et par l'amélioration de
la façon dont les instructions de travail standard sont expliquées. Vous
pouvez examiner les différences entre les opérateurs pour obtenir une
indication de l'endroit où se situe le problème (formation, compétences,
instructions).
Figure 3.18
126
3.4.3.2 Jauge R&R pour variables discrètes
La plupart des mesures dépendent d’instruments de mesure avec des
échelles ou d'équipements qui donnent la valeur des caractéristiques du
produit directement. Dans certains cas, les mesures sont obtenues grâce à
une évaluation subjective par les opérateurs. Quelques exemples :
Ces variables ont des qualités qui sont subjectives. Pour déterminer si les
classifications sont cohérentes, nous avons besoin que plusieurs évaluateurs
classent les différents éléments. Les principes suivants s'appliquent :
Les étapes 1 et 2 sont conformes à la jauge R&R avec les variables continues.
Dans la suite de ce paragraphe, l'accent est mis sur le calcul, l'analyse et la
correction.
Dans Minitab, les données peuvent être analysées pour les données
nominales et ordinales via :
128
Figure 3.19
Les résultats des techniciens sont indiqués à la figure 3.20:
Figure 3.20
129
Cliquez sur « results » et indiquez les éléments suivants :
Figure 3.22
Résultats:
Figure 3.23
130
Ce point est abordé plus en détail dans le module d'analyse. Les chiffres sur
lesquels se fonde le graphique sont présentés ci-dessous.
131
Explication Kappa : les statistiques kappa calculent la correspondance
absolue entre les évaluations. Les statistiques Kappa traitent toutes les
différences dans les classifications comme « aussi » sérieuses.
133
* REMARQUE * Essai unique pour chaque évaluateur. Aucun pourcentage de
concordance
d'évaluation intra-évaluateur n'est relevé.
Il est clair que, selon Kappa, il y a un certain nombre d'évaluateurs qui ne
satisfont pas (< 0,8 (donc 80%)), mais quand vous prenez l'écart relatif en
compte (noter un 4 alors que ça devrait être un 5 est moins grave que noter
un 1 alors que ça devrait être un 5), les évaluateurs sont tous satisfaisants
(le coefficient de Kendall est > 0,8 pour tous les évaluateurs).
Finalement :
Il existe deux types de base pour les données attributives : les nominales et
les ordinales, qui ont toutes deux leurs propres outils dans Minitab. Pour
une bonne analyse, il est important de bien réfléchir à la technique MSA que
vous allez utiliser avant même la collecte des données. De cette façon, les
données peuvent être collectées d'une manière qui se prête à une certaine
technique de jauge R&R attributive.
134
3.5 Exercices
Taille d’échantillon
Déterminez la taille de l'échantillon minimale pour les essais suivants :
Pareto
Faites un diagramme de Pareto à partir du diagramme à barres suivant :
50
40
occurences
31
30
24
20
12
10 8
4 4
0
le le m ds il . ady ied
lab lab l ar be ava t re up
vai vai Fir
ea gh m no occ
ra ta ou r oo t y
ct o t an te
n y i en X-r
a
do
ass
i s
No ger pat
No sur
No no
Figure 3.24
135
Définition opérationnelle
Faites une définition opérationnelle pour le terme :
« Inoxydable ».
Types de données
Indiquez dans quelles catégories classer les types de données ci-dessous:
Binaire Continue
Ordinale Nominale/catégorie
136
Reproductibilité, répétabilité & exactitude
Figure 3.25
137
138
CHAPITRE 4 : PERFORMANCE DE BASE
4.1 Introduction
Dans le chapitre précédent, l'output de processus Y mesurable a été défini,
la méthode de mesure a été sélectionnée et la fiabilité de l'instrument de
mesure a été analysée. Nous sommes prêts à mesurer ! Dans cette
quatrième étape du projet Lean Six Sigma, nous discutons de la performance
de base du processus : quelle est la performance du processus dans la
situation actuelle ? La performance de l'output du processus par rapport à la
spécification est appelée la Process Capability (capacité de processus). La
valeur de la capacité de processus dans la situation actuelle est une partie
de la performance de base. Dans les paragraphes suivants, ces termes sont
expliqués plus en détail.
139
• Répartition normale (Normal Probability Plot)
• Histogramme
• Boîte à moustaches
• Cartes d’essai (Run chart)
• Analyse de capacité graphique
• Cartes de contrôle (Control chart)
• Diagramme de Pareto
Ces outils d'analyse graphique sont expliqués en détail à l'Annexe I. En
outre, il est expliqué comment Minitab peut être utilisé pour ces analyses
graphiques.
Pour déterminer la performance d'un processus, cette performance doit
être confrontée à une norme ou une spécification. Ces spécifications
peuvent être bilatérales, par exemple la température d'une piscine (pas trop
froide ni trop chaude) ou unilatérales, par exemple la vitesse de livraison
d'un colis postal (le plus tôt sera le mieux, mais pas plus de deux jours). Dans
Six Sigma, on utilise les termes suivants :
Lower Specification Limit (LSL) : Limite de spécification inférieure
Upper Specification Limit (USL) : Limite de spécification supérieure
Selon le processus, vous pouvez être confronté à la fois une LSL et une USL,
ou seulement à une LSL ou une USL. La figure 4.2. illustre graphiquement le
comportement de processus par rapport aux spécifications.
Les spécifications ne sont pas toujours disponibles et devront alors être
déterminées dans le cadre du projet d'amélioration. Cela se fera parfois en
concertation avec le client, et parfois en concertation avec le donneur
d'ordre.
140
4.2.1 Déterminer les normes de performance
Pour déterminer la capacité de processus, des normes de performance sont
nécessaires : les spécifications. Il existe diverses sources qui peuvent être
utilisées pour déterminer ces normes :
141
4.2.2 Déterminer la capacité du processus
Maintenant que l'USL et/ou la LSL ont été déterminées et que les données
ont été recueillies, l'analyse initiale des données peut avoir lieu. Utilisez un
histogramme pour vérifier les points suivants :
Les données sont-elles distribuées normalement ?
Si moins de 0,5% de tous les points de données sont des valeurs aberrantes,
ils peuvent parfois être retirés de l'ensemble des données et être
« parqués » (ne pas les jeter). Les données restantes peuvent être utilisées
pour définir la capacité de processus. Officiellement, on détermine la
capacité une fois que les données sont normalement réparties et sans valeur
142
aberrante, et une fois que l'on a déterminé qu'il s'agissait d'une bonne
mesure.
La capacité de processus exprime dans quelle mesure l'output du processus
Y reste dans les normes de performance qui s'appliquent au processus,
définies comme la LSL et/ou l'USL. Toute valeur de Y qui se trouve en dehors
des limites est considérée comme un défaut. Dans le cas des données
continues, la distribution normale peut être utilisée. Dans le cas de données
discrètes, on part des « défauts par million d'opportunités » (DPMO) pour
déterminer le niveau Sigma, en utilisant le tableau de conversion du DPMO
en valeur Z (Z est le niveau Sigma).
Valeur Z
La valeur Z (ou niveau sigma) est liée au degré de défauts et indique
(globalement) le nombre d'écarts-types que l’on peut insérer entre la
moyenne des données et la limite la plus proche (LSL ou USL), sur la base
d'une distribution normale. Exprimé en une formule (en supposant que la
LSL est la limite la plus proche) :
= − ?@?
<=
143
Figure 4.0
Cf. figure 4.0 pour une explication à l'aide de la répartition. Lors du calcul de
la valeur Z proprement dit, les défauts situés au-delà de l'autre valeur de
spécification sont aussi repris dans la définition. Minitab le calcule pour nous
lors de l'analyse de la capacité, et dans le cas où les deux limites sont plus ou
moins aussi loin de la moyenne, on observera une valeur Z légèrement
inférieure par rapport à quand on examine uniquement la limite la plus
proche.
144
Figure 4.1
+ D
789:989
45
+ ;D
789:EFGG ó$ + ;D
EFGG:989
H5 H5
Figure 4.2
146
Tableau 4.0
Valeur Z 1 2 3 4 5 6
+ ,+ ; 0,33 0,66 1 1,33 1,67 2
147
discrètes (type oui/non). Pour calculer la capacité, vous devez déterminer
combien de personnes ont raccroché et utiliser le DPMO ou la valeur Z
comme résultat de capacité.
4.4 Exercices
Spécification
Comment appelle-t-on les limites supérieures et inférieures d'une
spécification client ?
Capacité de processus
Pour déterminer la capacité de processus, nous examinons la performance
du processus (Y) par rapport aux limites de spécifications définies. Une
distinction est faite entre les données continues et des données discrètes.
Quelle est cette distinction ?
148
149
150
CHAPITRE 5 : OBJECTIF FONDE SUR LA
PERFORMANCE DE BASE
5.1 Introduction
Dans le chapitre précédent, la performance actuelle du processus que nous
voulons améliorer a été déterminée. La collecte et l'analyse des données a
permis de mieux comprendre les valeurs actuelles de Y (moyenne, écart-
type) et la capacité du processus. Cette compréhension permet de
concrétiser les objectifs d'amélioration décrits dans la charte du projet. Dans
ce chapitre, nous allons approfondir la concrétisation de l'objectif
d'amélioration.
L'objectif est exprimé en une valeur cible pour Y. On peut déterminer dans
quelle mesure cette valeur cible est réaliste en étudiant l'entitlement
(mandat). C'est la meilleure performance de processus enregistrée par le
passé. D'une manière générale, cette valeur cible est déterminée avec le
sponsor. La valeur cible convenue est également exprimée en termes de
valeur sigma ou DPMO (ou en pourcentage de défauts). L'objectif est inscrit
dans la charte de projet.
151
5.3 Recalcul des bénéfices
Lors de la définition du défaut et de la rédaction de la charte de projet, on
évalue les bénéfices du projet. Cette évaluation est faite sur la base des
informations qui étaient disponibles à ce moment-là. Après la détermination
de la capacité de processus et de l'objectif d'amélioration quantifié, on a
une meilleure vision sur les possibilités du projet d'amélioration. Cela peut
avoir des conséquences sur les bénéfices qui ont été estimés initialement.
5.4 Exercices
Objectif d'amélioration
Qui détermine en fin de compte l'objectif d'amélioration ?
152
153
154
PARTIE 3: ANALYSE
Déterminez quels paramètres du processus (inputs) ont le plus d'effet sur les
résultats critiques du processus (outputs).
Après avoir terminé la phase d'analyse, les éléments suivants seront livrés :
155
156
CHAPITRE 6 : CAUSES POTENTIELLES DE
VARIATION
6.1 Introduction
A l'étape 5 du plan en 12 étapes, l'objectif d'amélioration est quantifié et
exprimé dans une nouvelle valeur pour Y. Les variations (et les écarts) sont
les causes suite auxquelles le Y n'atteint pas toujours la valeur souhaitée.
Dans ce chapitre, nous examinons les causes possibles de cette variation.
Ces causes possibles sont appelées les X. Le but de ce chapitre est de
cartographier toutes les causes possibles (aussi appelées les « trivial
many »). Dans le chapitre suivant, nous rechercherons les X qui ont le plus
d'impact sur la variation de Y (également appelés les « vital few »), sur
lesquels les efforts d'amélioration seront concentrés dans la phase
d'amélioration.
Figure 6.0
157
6.2 Causes potentielles (X)
Le résultat de cette première étape pour trouver les causes possibles de
variation est une liste de X. Il y a en règle générale beaucoup de sources de
variation. Tous ces X ne contribuent pas de manière substantielle. Outre la
question visant à savoir si un certain X contribue substantiellement à la
variation, il sera important plus tard (!) de voir si un contrôle est possible sur
ce X. S'agit-il d'un bouton que l'on peut tourner facilement ? Par exemple,
bien que la météo soit une cause majeure d’embouteillages en Belgique, il
est difficile de l'influencer. Nous pouvons par contre veiller (si nous savons
ce qu'il en sera du temps) avec d'autres X à ce que l'on arrive à temps,
malgré les embouteillages. Mieux vous savez quelle est l'influence du temps
sur la durée de votre trajet et mieux vous connaissez les prévisions, mieux
vous pouvez en tenir compte et adapter votre heure de départ de manière
optimale. Les X que nous ne pouvons pas influencer sont appelés « bruit »,
mais nous les reprenons aussi dans la recherche de tous les X. La recherche
ne se limite donc pas aux X qui représentent différentes configurations
d'équipement, de procédures ou de règles. Ces X peuvent être soit continus
soit discrets.
La procédure qui sera suivie dans les prochains chapitres pour identifier les
causes premières est la même que celle utilisée pour déterminer le CTQ et le
Y:
158
6.2.1 Outils pour déterminer les causes potentielles
Il existe différents outils qui peuvent être utilisés pour identifier les X
possibles :
159
l'environnement comme axes principaux afin d'orienter le processus de
cartographie.
Figure 6.1
Le diagramme Cause & Effet est un outil très utile pour les raisons
suivantes :
160
Construire un diagramme Cause & Effet
Les étapes présentées ci-dessous donnent un fil conducteur pour la
construction d'un diagramme de cause à effet :
1. Identifiez clairement et définissez la conséquence (effet) qui est en
cours d'analyse :
• L'effet est décrit comme étant le problème, comme cité dans la
charte. Lors de la réalisation du diagramme pour votre projet,
un Y trop faible (ou trop élevé) en est généralement la
conséquence.
• Utilisez des définitions opérationnelles (voir plan de collecte
des données) pour faire en sorte que la signification de l'effet
soit clairement comprise.
2. Assurez-vous que tout le monde puisse participer et que tout le monde
puisse voir le diagramme. Dessinez le diagramme et le bloc d'effet (par
exemple sur un tableau blanc ou du papier).
3. Identifiez les catégories de causes qui contribuent à l'effet étudié :
• Les méthodes, les matériaux, l'homme, les machines, les
mesures, l'environnement.
• Les règlements, les procédures, les personnes, l'usine.
4. Pour chaque branche principale, déterminez différents facteurs qui
peuvent être la cause de l'effet.
• Recherchez un maximum de causes ou facteurs potentiels et
reliez-les aux sous-branches des branches principales (avec
l'équipe, il est utile d'utiliser des post-it et des marqueurs).
5. Identifiez les niveaux de plus en plus détaillés des causes et organisez-
les en fonction des causes apparentées ou des catégories.
• A partir des causes citées, demandez à plusieurs reprises
« pourquoi » afin de déterminer les causes sous-jacentes.
6. Analysez le diagramme. Cela vous aidera à identifier les causes qui
doivent être étudiées de manière plus approfondie.
• Etudiez le « bilan » de votre diagramme. Obtenez des niveaux
de détail semblables pour la plupart des catégories :
161
- Un cluster lourd d'éléments dans une seule catégorie
peut clairement impliquer la nécessité d'un examen
complémentaire.
- Une catégorie principale avec seulement quelques
causes spécifiques peut indiquer que davantage de
causes doivent être identifiées.
- S'il y a plusieurs branches qui n'ont que quelques
sous-branches, il peut être judicieux de les combiner
en une seule catégorie.
• Recherchez les causes qui apparaissent plusieurs fois. Il peut
s’agir des causes premières.
• Voyez aussi ce que vous pouvez mesurer par rapport aux
causes que vous avez trouvées afin de pouvoir quantifier la
variation.
La figure 6.2 contient un exemple d'un diagramme de cause à effet qui a été
rempli.
162
Figure 6.2
6.2.3 Matrice Cause & Effet
La matrice de cause à effet évalue la corrélation possible entre plusieurs
effets (Y1, Y2, ...) et les causes sous-jacentes (X1, X2, ...).
Cette matrice est souvent utilisée après le diagramme de cause à effet afin
de déjà effectuer en cas de (trop) nombreuses causes possibles une
première séparation entre les X avec lesquels on continue de travailler ou
non. Outre le fait qu'une corrélation est établie entre X et Y, cette
corrélation reçoit aussi un score de sorte que les causes puissent être
directement priorisées. Les scores possibles souvent utilisés sont 0, 1, 3, 6 et
9, pour désigner respectivement aucune corrélation, une faible corrélation,
une corrélation moyenne, une forte corrélation et une très forte corrélation.
Par ailleurs, si un effet (Y1) pèse plus lourd qu'un autre (Y2 ou par exemple
un « do not harm Y »), ces effets ont un facteur de pondération différent. Ce
facteur de pondération est multiplié par le score de corrélation (0, 1, 3, 6, ou
9), pour déterminer le score total par cause. L'inventeur de la matrice a
d'ailleurs uniquement utilisé 0, 1, 3, 9 pour rendre les différences plus
grandes. Le résultat de la matrice de cause & effet peut éventuellement être
illustré graphiquement dans un diagramme de Pareto, afin que la règle des
80/20 puisse être appliquée pour déterminer avec quelles causes (possibles)
on continue de travailler. La matrice de cause & effet est donc souvent
utilisée après un brainstorming sur la base du diagramme d'Ishikawa.
Concrètement, il se peut qu'il y ait trop de X possibles pour tout mesurer.
Une première sélection est donc faite sur la base des connaissances du
processus de l'équipe. La matrice C&E aide à déterminer ce qui va être
mesuré ou non, ce qui permet de maintenir le projet gérable. Puisque les
scores sont des évaluations de l'équipe, il est d'ailleurs possible qu'ils ne
soient pas tout à fait justes. Un risque de l'utilisation de cette matrice est
donc qu'un X potentiellement important soit estimé et coté comme n'étant
pas si important, et ne soit donc pas repris (à tort) dans le projet.
Cf. les figures 6.3 et 6.4 pour une illustration de la matrice et du Pareto qui
en découle.
163
Figure 6.3
Figure 6.4
Pareto Chart of Cause
600 100
500
80
400
Percent
Count
60
300
40
200
100 20
0 0
Cause t . ts s s l
es gt r.
%
es ed re ce ve
qu st tu ur Le
re lm in
te qu ue na so al
r va t re eq
pe
o
ke of r s ig re o n
pr ar nt # # at
i
ts ap #
ou uc
f ec of fm ed
de l. o am
# ai il.
av a va
Count 126 117 95 66 60 48 39 33
Percent 21,6 20,0 16,3 11,3 10,3 8,2 6,7 5,7
Cum % 21,6 41,6 57,9 69,2 79,5 87,7 94,3 100,0
164
Le diagramme de Cause & Effet ainsi que la matrice de Cause & Effet
peuvent être appliqués en combinaison pour arriver aux causes de variation
les plus plausibles. On collecte ensuite des données à partir de ces causes les
plus plausibles pour analyser lors de la phase d'analyse ces données de
manière à ce que l'on sache clairement s'il s'agit de causes réelles (c'est ce
que l'on appelle le passage du « Trivial Many » au « Vital Few » X.)
La matrice de Cause & Effet fait donc ici office de filtre entre le diagramme
de Cause & Effet (où l'on cite souvent 50 X possibles) et la mesure de ces X.
50 X est généralement un nombre trop élevé pour en tirer des données. Ce
filtre est donc nécessaire. S'il est possible de collecter des données sur les
50 X, c’est bien sûr préférable.
Dans certains projets Green Belt, ou des projets où les causes sont
suffisamment claires sans une analyse difficile, la matrice Cause & Effet (qui
est donc surtout basée sur les connaissances de processus des membres de
l'équipe) peut conduire au traitement des X « évidents ». Dans les autres
cas, l'analyse doit être effectuée, ce qui signifie que des données doivent
être recueillies sur ces X (et les données Y associées).
165
Pour chaque étape du processus, une équipe recherche les facteurs de
défaillance possibles, les défauts et l'effet de la défaillance. La gravité de la
conséquence, la probabilité de survenance de la défaillance et la possibilité
de détecter la cause de la défaillance avant qu'elle se produise sont notées.
Ces scores sont multipliés entre eux jusqu'à l'obtention d'un score total : le
Risk Priority Number (numéro de priorité de risque - RPN). Ce RPN indique la
priorité des facteurs qui doivent être traités pour réduire le risque
(probabilité ou effet). La FMEA peut être appliquée en différentes phases
afin d'établir des relations et de les classer, par exemple CTQ par rapport au
VOC, Y par rapport au CTQ, ou X par rapport au Y.
La figure 6.5 donne un exemple de FMEA avec les colonnes qui doivent être
remplies.
Figure 6.5
Faire une FMEA est un travail d'équipe qui nécessite une préparation pour
réussir. Les instruments suivants peuvent être utilisés dans cette
préparation :
• Le diagramme de processus
• Le diagramme Cause & Effet
• La matrice Cause & Effet
166
• Histoire du processus
• Les procédures techniques du processus
Comme indiqué, le résultat d'une FMEA dépend de l'objectif pour lequel on
l’utilise et de la phase dans laquelle il est appliqué. Le résultat peut être :
Ces éléments sont élaborés dans une réunion d'équipe. Les lignes directrices
suivantes peuvent être utilisées pour développer une FMEA :
1. Notez les étapes du processus ou les éléments dans la colonne
« Process step/part number ».
2. Déterminez la défaillance potentielle dans cette étape dans la colonne
« potential failure mode ».
Décrivez la situation dans laquelle le processus échoue. La défaillance
doit être liée aux spécifications de prestation du Y.
3. Notez l'effet de la défaillance dans la colonne « potential failure
effects ».
Les effets doivent être liés aux CTQ de la phase de définition et être
observés par le client (interne).
4. Déterminez la gravité de la défaillance (severity) dans la colonne
« SEV ».
167
Le degré de gravité est exprimé en un score. Ce score est défini avec
l'équipe. Le tableau 6.0 peut être utilisé comme exemple pour noter la
gravité.
Tableau 6.0
Gravité Description Score
Elevée Ne répond pas du tout aux exigences des clients ; le 5
défaut rend le processus très inefficace ; cause des
problèmes et des retards majeurs
Moyenne Peut causer de l'insatisfaction client ; le défaut rend 3
le processus un peu moins efficace ; peut causer des
problèmes et des retards
Faible Affecte un peu, voire pas du tout le client ; le défaut 2
a peu ou pas d'impact sur l’efficience et ne
provoque guère de retard
Aucune N'a pas d'impact sur le client ou le processus 1
5. Complétez la liste avec les causes des défaillances possibles dans la
colonne « potential causes ».
Décrire la cause de la défaillance sous forme de quelque chose qui peut
être vérifié ou corrigé. Attention : une même défaillance peut avoir
plusieurs causes.
6. Déterminez la probabilité d'apparition de la défaillance (occurrence)
dans la colonne « OCC ».
Cette probabilité, ainsi que la fréquence d'apparition prévue, est
également illustrée dans un score. A l’aide du tableau 6.1, on peut
estimer la fréquence d’une défaillance.
169
- La limitation de la gravité en cas de défaillance.
Commencez par les causes en haut de la liste. Les actions correctives
pour remédier à ces causes auront le plus grand impact. Lorsque vous
utilisez une échelle 1-5 pour noter la gravité, la fréquence et la
détection, le score maximum est de 125. Une ligne directrice qui était
utilisée dans la plupart des cas était que les scores supérieurs à 100
devaient impérativement être traités, mais qu'il était aussi très
souhaitable de traiter tous les scores au-dessus de 80. Aujourd'hui, on
utilise souvent des scores 1-10, de sorte que le score maximum est de
1000, et que les seuils de 800 et 600, respectivement, peuvent être
utilisés comme lignes directrices.
12. Attribuez l'action à une personne qui en sera responsable dans la
colonne « Resp. ».
En outre, établissez un plan ensemble pour mener à bien l'action.
13. Inscrivez les actions qui ont été menées dans la colonne « mesures
prises » de la FMEA.
14. Recalculez le RPN après que les actions ont été menées. Suite à une
action, l'un des trois scores diminuera toujours (Severity, Occurrence,
Detection). Dans un seul cas, ce sera 2 sur 3.
La FMEA est un document vivant et une liste de priorités pour les actions qui
doivent être menées pour améliorer un processus. Après qu’une action a
été menée, l'équipe déterminera à nouveau la probabilité de détection, la
fréquence et la gravité, le RPN sera recalculé et la liste priorisée à nouveau.
La cause en question va descendre dans le classement et une cause
différente sera au sommet de la liste.
La FMEA est conçue pour prendre des actions avant la défaillance et non
après. Pour réussir une FMEA, des représentants des départements
impliqués dans le processus doivent participer. Parfois, des experts sur des
sujets spécifiques doivent être impliqués pour faire une estimation correcte.
La FMEA est un document vivant qui doit être revu avec l'équipe après
chaque action (ou après une série d'actions) pour fixer de nouvelles
priorités.
170
Dans cette phase du projet d'amélioration, la FMEA est un instrument pour
identifier et hiérarchiser les causes de variations de Y. Les actions à mener
pour remédier à la situation seront discutées dans la phase Améliorer.
171
6.2.6 Analyse graphique de données
Lors de la définition de la capacité de processus, une première analyse des
données Y du projet est réalisée. Ces données peuvent déjà donner une idée
des X qui jouent un rôle dans la variation du Y. Les outils graphiques suivants
peuvent donner des indications pour trouver les causes :
Figure 6.6
Histogram of Dimension
80 Mean 600,0
StDev 1,402
N 300
70
60
50
Frequency
40
30
20
10
0
596,8 598,4 600,0 601,6 603,2 604,8
172
• Une distribution anormale quand on s’attend à une distribution
normale peut être un motif d'examen des causes possibles au niveau
des X d’input ou de stratification.
Boîte à moustaches
Figure 6.7
Maximum Q3
Q2 Q1
=Médiane
IQ
R
Minimum
173
I-MR chart
Figure 6.8
I-MR Chart of Supplier 2
UCL=605,34
605
6
6
Individual Value
6
_
X=600,23
600
2
2
2 2
2 2
595
LCL=595,12
1 11 21 31 41 51 61 71 81 91
Observation
1 UCL=6,284
6
Moving Range
__
MR=1,923
2
2
0 2 222
LCL=0
1 11 21 31 41 51 61 71 81 91
Observation
174
Multi-Vari Chart
Figure 6.9
900
800
sales
700
600
500
400
175
Diagramme de Pareto
Figure 6.10
100
1500 80
Percent
Aantal
60
1000
40
500
20
0 0
Type Fout Sent to wrong address Late Wrong Form Used Not Complete
Aantal 834 550 337 99
Percent 45,8 30,2 18,5 5,4
Cum % 45,8 76,0 94,6 100,0
Le diagramme de Pareto peut être utilisé pour visualiser les défauts les plus
fréquents. La catégorie la plus fréquente indique généralement un X sous-
jacent. Ce graphique est lui aussi caché dans Minitab sous les outils de
qualité, et donc pas sous les graphiques.
S'il n'est pas possible d'obtenir le résultat souhaité (liste des X potentiels)
avec ces outils, d'autres instruments peuvent être utilisés. Il peut ressortir
des analyses initiales que les données collectées sont insuffisantes pour être
capable d’identifier les causes plus profondes. Dans ce cas, des données
supplémentaires doivent être recueillies et nous retournons à la phase de
mesure.
177
6.4 Exercices
Graphiques
Comment sont appelés les graphiques présentés ci-dessous et à quoi
servent-ils ?
178
Figure 6.11
# Nom Fonction
A
B
C
D
E
179
180
CHAPITRE 7 : DETERMINER LES CAUSES
PREMIERES
7.1 Introduction
Dans le chapitre 6, nous avons cartographié les causes potentielles de la
variation dans l'output de processus Y. Dans ce chapitre, nous en examinons
les causes principales. Nous voulons étayer la sélection des causes
premières par des données. En préparation de ce chapitre, nous vous
recommandons de commencer par lire l'Annexe 3 sur les tests d’hypothèse.
Dans ce chapitre, l'accent est mis sur la sélection et l'exécution du bon test
afin de vérifier vos hypothèses.
181
182
7.3 Tester les hypothèses
La figure 7.0 illustre les combinaisons les plus couramment utilisées des
types de données pour X et Y, avec les tests d'hypothèse correspondants. Il
ne manque que la régression pour les X continus et le Y continu dans
l'aperçu. Ces éléments disposent de leur propre menu dans l'Assistant de
Minitab. Le test de normalité est repris sous l'assistant « graphical analysis »
séparé.
183
7.3.2 Test de normalité
Le test de normalité est utilisé pour vérifier si un ensemble de données est
normalement réparti (ou si les éventuels sous-groupes d'un ensemble de
données présents sont à chaque fois normalement répartis). C'est important
parce que les analyses qui peuvent être réalisées pour les données
normalement réparties sont plus puissantes. Le test de normalité se penche
sur les éléments suivants:
JK Les données sont distribuées normalement.
Figure 7.1
184
Cela donne le résultat suivant :
60
50
40
30
20
10
5
1
170 175 180 185 190 195 200 205
La valeur P > 0,05, ce qui signifie que les données sont distribuées
normalement.
Sur l'axe Y du graphique, la répartition normale est exprimée en
pourcentage. 50% se trouvent au centre et les extrémités (1 et 99%) en sont
les plus éloignées. En utilisant cette échelle, une ligne droite est créée
lorsque la distribution est normale (c'est ce qu'on appelle le test « du crayon
gras »).
Dans Minitab 17 et les versions suivantes, la même conclusion est tirée
(« normality test : Pass ») en utilisant Assistant -> Graphical Analysis ->
Graphical summary :
185
Graphical Summary of lengte
Summary Report
Distribution of Data
Examine the center, shape, and variability.
Descriptive Statistics
N 12
Mean 184,92
StDev 6,7751
Minimum 172
5th percentile *
25th percentile 180
Median 184
75th percentile 190
95th percentile *
Maximum 196
170 175 180 185 190 195 200
190
lengte
180
170
0 2 4 6 8 10 12
H K : µ = µK
HN : µO ≠ µK
Le résultat est:
Distribution of Data
Where are the data relative to the target?
750 Comments
187
La question suivante est : quand peut-on conclure qu'un lot de lampes sur
lequel on effectue un test d’échantillon avec une population de 4 ne
correspond pas aux spécifications ? Ceci peut être calculé comme suit dans
Minitab et dépend de la puissance du test (voir pour cela l'Annexe 3). Dans
le Diagnostic Report, Minitab indique quelles différences sont significatives
pour quelle puissance (power) (pour 4 lampes).
Figure 7.3
HK : µO ≤ µ (ou HK : µO ≥ µ )
HN : µO ≠ µ
Figure 7.4.
189
Le champ « Sample IDs » désigne la colonne sur la base de laquelle les 2
échantillons sont distingués. Dans ce cas Summer (été) est « on » ou « off ».
Nous étudions s'il y a une différence de délai entre « on » (l'été) et « off » (le
reste de l'année). Les résultats sont présentés dans la figure 7.5.
Comments
-6,0 -4,5 -3,0 -1,5 0,0 • Test: You can conclude that the means differ at the 0,05 level of
significance.
• CI: Quantifies the uncertainty associated with estimating the
difference in means from sample data. You can be 95% confident
that the true difference is between -5,7767 and -2,4099.
Distribution of Data
• Distribution of Data: Compare the location and means of samples.
Compare the data and means of the samples.
Look for unusual data before interpreting the results of the test.
normal
summer
4 8 12 16 20 24 28 32
190
7.3.5 Test d'écart-type 2 échantillons
Tableau 7.3
Type de Type de Nombre Nombre de Application
données données X de X sous-groupes
Y
Continue Discrète 1 2 Répartition des
deux
échantillons
Le test d'écart type 2 échantillons est utilisé pour comparer les écarts-types
de deux échantillons. Un échantillon est comparé à l'autre afin de
déterminer s'ils sont égaux en termes de répartition (bidirectionnel) ou si
une répartition est supérieure à l'autre (unidirectionnel).
HK : σO = σ
HN : σO ≠ σ
HK : σO ≤ σ (ou HK : σO ≥ σ )
HN : σO > σ (ou HN : σO < σ )
Par exemple : les écarts dans la durée de vie des lampes de différentes
marques. Dans ce cas, l'hypothèse est la suivante :
HK : σO = σ
HN : σO ≠ σ
Dans l'exemple précédent que nous avons présenté, nous avons étudié le
délai moyen pour combler un poste vacant durant deux périodes : en été et
en dehors de l'été (dans la feuille de travail : Position fill cycle time.mtw).
191
Minitab: Assistant -> Hypothesis test -> 2 sample standard deviation
Figure 7.6
Nous étudions s'il y a une différence dans la répartition du délai entre l'été
et le reste de l'année (hors été). Les résultats sont présentés dans la
figure 7.7.
192
Figure 7.7 2-Sample Standard Deviation Test for cycle time by Season on/off
Summary Report
normal Comments
summer
4 8 12 16 20 24 28 32
La valeur P pour ce test est supérieure à 0,05. HK est accepté. Le délai en été
n'a pas de répartition significativement différente que dans le reste de
l'année.
193
mesure pour le même échantillon, notamment lorsque des mesures en ligne
sont comparées à des mesures en laboratoire.
L'exemple que nous présentons ici implique une comparaison du
comportement de stationnement de deux voitures. Il est préférable de
laisser toujours la même personne garer les deux voitures dans la même
situation que d'avoir de nouvelles personnes qui garent une voiture. Les
délais de stationnement sont pour les deux voitures par personne notés sur
la même ligne (feuille de calcul : Carpark.mtw).
Les hypothèses:
HK : µO = µ
HN : µO ≠ µ
194
Figure 7.9
Paired t Test for the Mean of Car_A and Car_B
Summary Report
Individual Samples
Statistics Car_A Car_B
Mean 34,868 32,900
Distribution of the Differences Standard deviation 7,5907 7,2847
Where are the differences relative to zero?
0 Comments
• Test: You can conclude that the means differ at the 0,05 level
of significance. The mean of the paired differences is greater
than zero.
• CI: Quantifies the uncertainty associated with estimating the
mean difference from sample data. You can be 95% confident
that the true mean difference is between 0,17075 and 3,7641.
• Distribution of Differences: Compare the location of the
differences to zero. Look for unusual differences before
interpreting the results of the test.
L'histogramme que vous voyez est basé sur les 20 valeurs que l'on obtient
en prenant par personne la différence dans les deux délais de stationnement
des deux voitures. Il s'agit donc d'une illustration des différences de temps
calculées par Minitab. Sur la base de l'échantillon, un intervalle de confiance
peut être calculé pour la population (base sur laquelle nous pouvons alors
fonder une conclusion générale). Puisque la valeur « 0 » n'est pas incluse
dans l’intervalle de confiance (mais pas de beaucoup), nous pouvons dire
avec une certitude d'un peu plus de 95% que la différence des temps de
stationnement des voitures ne peut pas être de « 0 », ce qui signifie qu'ils
sont différents.
Directement sur la base de la valeur P < 0,05, nous pouvons conclure qu’il y
a une différence entre le délai de stationnement des deux voitures.
195
7.3.7 1-Sample %Defective test (ou test 1
proportion)
Tableau 7.5
Type de Type de Nombre Nombre de Application
données données X de X sous-
Y groupes
Discrète Discrète 1 1 Comparer une
fraction (proportion)
avec une limite
donnée
Comme le test t à 1 échantillon, on compare avec ce test un échantillon et
une limite donnée. Dans le cas du test t à 1 échantillon, nous sommes
confrontés à des données continues. Avec ce test % défaut 1 échantillon,
nous avons affaire à des données discrètes sous forme de proportions
« erreur ». Cette proportion est indiquée par « p ». (Attention : p minuscule
en opposition à la valeur P que nous étudions à la fin d'un test pour rejeter
l'hypothèse nulle ou non). Ce test est utilisé dans les hypothèses sur un
échantillon et une conclusion sur la fraction qui est bonne ou erronée.
Aucun ensemble de données n'est nécessaire si l'on a déjà compté les
nombres bons et erronés. Uniquement la taille de l'échantillon et le nombre
d'erreurs (il est équivalent à la taille d'échantillon moins le nombre de bons).
L'intervalle de fiabilité est important dans ce test. Lors de ce test, il est basé
sur la répartition binominale. Cet élément indique ce que nous pouvons dire
de la fraction de la population totale sur la base de l'échantillon. Le test peut
être effectué d'une façon unidirectionnelle ou bidirectionnelle :
Unidirectionnelle
HK : p ≤ pK (ou HK : p ≥ pK )
Bidirectionnelle
HK : p = A%
196
HN : p ≠ A%
HK : p ≤ 4%
HN : p > 4%
400 factures ont été vérifiées et 24 d'entre elles sont erronées. L'affirmation
du collaborateur doit-elle être acceptée ou rejetée ? La fraction de
l'échantillon est de 6%. Cependant, l'intervalle de confiance sur la totalité de
la population est déterminant en ce qui concerne l'acceptation ou le rejet de
l'affirmation.
Minitab: Assistant -> Hypothesis Tests -> 1 Sample % Defective Test
197
Figure 7.10
Comments
4 5 6 7 8
198
Cela signifie que, après avoir procédé au test unidirectionnel, l'hypothèse
nulle doit être rejetée. Il commet beaucoup plus que 4% d'erreurs
(l'intervalle de confiance pour le nombre d'erreurs commises a une limite
inférieure de 4,17%). L'affirmation de 4% d'erreurs est donc en dehors de
l'intervalle de confiance.
Figure 7.12
1-Sample % Defective Test for Facturen
Summary Report
Comments
4 6 8
Exemple
Vous voulez savoir si certains consommateurs qui renvoient un
questionnaire peuvent être influencés par le fait de leur envoyer un petit
cadeau avec le questionnaire. Le cadeau est envoyé avec la moitié des
questionnaires afin de déterminer si cela fonctionne. 200 questionnaires
sont envoyés, 100 avec le cadeau, 100 sans le cadeau. 78 personnes à qui on
a envoyé un cadeau ont renvoyé le questionnaire rempli, il y a donc
22 défauts. Parmi les personnes à qui on n'a pas envoyé de cadeau, 54 ont
renvoyé le questionnaire. Il y a donc 46 défauts.
Il s'agit d'un test bidirectionnel, de sorte que la possibilité que le cadeau
puisse avoir un effet négatif est laissée ouverte :
HK : pO = p
HN : pO ≠ p
Minitab: Assistant -> Hypothesis Tests -> 2 sample % defective
200
Figure 7.13
Le résultat :
2-Sample % Defective Test for Avec cadeau vs Sans cadeau
Figure 7.14 Summary Report
Individual Samples
Statistics Avec cadeau Sans cadeau
Do the % defectives differ?
Total number tested 100 100
0 0,05 > 0,5
Number of defectives 22 46
% Defective 22,00 46,00
Yes No 95% CI (14,33; 31,39) (35,98; 56,26)
P < 0,001
-20 0 20
202
est de 15, l'assistant dans Minitab donne un avertissement sous les
15 mesures par groupe).
- Si la distribution des sous-groupes est répartie normalement.
4. Générez les graphiques de l'ANOVA et l'output.
5. Tirez les conclusions.
Exemple
1. Description du problème :
Déterminez si la saison a un impact significatif sur le nombre de jours
qu'il faut pour combler un poste vacant.
2. Les hypothèses :
0,1
0 10 20 30 40
cycle time
Worksheet: POSITION FILL CYCLE TIME.MTW
203
Les valeurs 4P sont toutes >0,05 : les sous-groupes sont normalement
distribués.
4. Générez l'output ANOVA
Minitab: Assistant -> Hypothesis Tests -> one way ANOVA ->
Figure 7.16
Résultats:
One-Way ANOVA for cycle time by Season1-4
Figure 7.17 Summary Report
• Test: You can conclude that there are differences among the
means at the 0,05 level of significance.
autumn
• Comparison Chart: Look for red comparison intervals that do
not overlap to identify means that differ from each other.
Consider the size of the differences to determine if they have
practical implications.
spring
winter
summer
204
5. Tirez des conclusions
Nous voyons que l'été se distingue. La question est de savoir si l'été est
significativement différent. Nous voyons dans les résultats une valeur P
<0,05 : le HK est rejeté : il existe au moins une saison dont le délai moyen est
significativement différent de celui d'au moins une autre saison. Le
graphique des intervalles de confiance indique que la moyenne de l'été est
différente de celle des autres saisons. Lorsque les IC des facteurs individuels
(saisons) se chevauchent, il n'y a pas de différence significative (comme c'est
le cas pour le printemps, l'automne et l'hiver). Quand il n'y a pas de
chevauchement, il y a une différence significative (comme pour l'été par
rapport aux autres).
Minitab nous donne un Report card pour le contrôle des conditions afin de
pouvoir réaliser le test : les unusual data : un point de mesure étrange est
constaté. Vérifiez s'il ne s'agit pas d'une erreur de mesure. Le nombre de
points de données (N=60 pour chaque groupe) est largement suffisant.
Normalité : suffisante. Variances égales : à partir du Minitab 17, un autre
contrôle (méthode de Welch) est utilisé, de sorte qu'elles ne doivent plus
être égales.
205
La valeur aberrante qui est mentionnée sous la rubrique « Unusual Data »
peut être trouvée dans les données de la figure 7.19, qui est également
générée :
Figure 7.19
One-Way ANOVA for cycle time by Season1-4
Diagnostic Report
autumn autumn
30
15
0
spring spring
30
15
0
summer summer
30
15
0
winter winter
30
15
0
8 16 24 32
206
Figure 7.20
207
Le résultat est commenté dans l'Assistant.
Standard Deviations Test for cycle time by Season1-4
Summary Report
• Test: There is not enough evidence to conclude that there are differences among the
standard deviations at the 0,05 level of significance.
autumn • Comparison Chart: Blue intervals indicate that the standard deviations do not differ
significantly.
spring
summer
winter
4 5 6 7
Figure 7.21
Minitab 16: Stat -> ANOVA -> Two Way, et sous graphique Boîte à
moustaches : « Actif »
208
Minitab 17: Stat -> ANOVA -> General Linear Model -> Fit General Linear
Model, ensuite sous « Model… » ajouter le terme d'interaction en
sélectionnant Region et Packaging dans le champ « Terms » et cliquer sur
« Add ».
La boîte à moustaches peut être créée séparément via Graphs, Boxplot, one
Y with Groups. Sous Data View, la Mean Connect Line peut être ajoutée et
vous pouvez indiquer que « Region » doit être traitée comme variable
attribut (c'est-à-dire discrète).
Figure 7.22a
Boxplot of sales
1200
1000
800
sales
600
400
200
packaging
l or ai
n
al
e lo
r
ai
n
al
e l or ai
n
al
e
co pl fs co pl fs co pl fs
to to to
in in in
po po po
region 1 2 3
209
Figure 7.22b et 7.22c
`Figure 7.23
Résultat:
211
Interpréter les résultats :
La valeur P > 0,05, ce qui signifie que HK doit être accepté. Il n'y a pas de
différence parmi les diverses méthodes. On peut voir dans la colonne avec
les valeurs Z dans quelle mesure les sous-groupes divergent. La règle
historique veut que si la différence dans les valeurs Z entre deux sous-
groupes est supérieure à 3, ils diffèrent significativement l'un de l'autre.
Dans l'exemple, la valeur Z la plus élevée est de 1,11 et la plus faible de
-1,19. Il y a donc une différence de 2,30. Le test n'est donc pas significatif
(valeur P = 0,565). Tirer des conclusions sur la base de la valeur P est
toutefois suffisant actuellement.
Exemple 2
Y a-t-il une différence dans la croissance des plantes selon les différents
traitements ? Trois types de traitement sont comparés. Vu que l’on compare
des médianes, la boîte à moustaches aide à mieux comprendre les
différences.(feuille : Kruskal-Wallis exercise.mtw)
Voici les résultats, ainsi que la boîte à moustaches comme dans la fenêtre de
session :
212
Figure 7.24
Boxplot of Growth
17
16
15
Growth
14
13
12
1 2 3
Treatment
Worksheet: Kruskal Wallis Exercise.MTW
Outre le test de Kruskal-Wallis, il existe d'autres tests pour les données qui
ne sont pas réparties normalement. On les appelle les « tests sans
répartition ». Voici un tableau illustrant un récapitulatif que vous pouvez
utiliser comme alternative pour les tests de données à répartition normale.
213
Tableau 7.11
Le test du chi-carré est aux proportions ce que l'ANOVA est aux moyennes.
Ce test est appliqué lorsque plus de 2 proportions doivent être comparées.
Les hypothèses sont les suivantes :
214
est un défaut. Ci-dessous, les résultats pour les cinq employés :
Figure 7.25
Figure 7.26
215
Figure 7.27
• Test: There is not enough evidence to conclude that there are differences among the %
Louise defectives at the 0,05 level of significance.
• Comparison Chart: Blue intervals indicate that the % defectives do not differ
significantly.
Joe
Donna
Mary
Sid
0 4 8 12 16
Figure 7.28
Dans les deux cas, cela donne la même valeur P de 0,285. C'est plus que
0,05. Nous devons accepter HK : il n'y a pas de différence significative entre
les collaborateurs dans les nombres de factures comptabilisées et les
erreurs.
216
Figure 7.29
Le Report Card de l'Assistant indique si le test est valide, autrement dit si
l'on satisfait à toutes les exigences pour le test. Il se pourrait que la collecte
de plus de données d'échantillons des mêmes populations donne un résultat
significativement différent.
Minitab: Assistant > Hypothesis Tests > « Chi-Square Test for Association »
Utilisez de la feuille de calcul : Chi2 Exercise.MTW
217
Figure 7.30
Via l'assistant, cela fonctionne comme suit : « Assistant > Hypothesis Tests >
Chi Square Test for Association ». Vous pouvez alors entrer les valeurs vous-
même ou sélectionner « get from current worksheet ». Ensuite, vous liez le
X et le résultat Y à la bonne colonne (ou ligne), éventuellement après
ajustement du nombre de lignes ou de colonnes avec les flèches
déroulantes.
Figure 7.31
218
Figure 7.32
Chi-Square Test for Association: Outcomes by operator
Summary Report
Do the percentage profiles differ? Comments
0 0,05 0,1 > 0,5 • Test: You can conclude that there are differences among the outcome percentage
profiles at the 0,05 level of significance.
Yes No • Percentage Profiles Chart: Use to compare the profile for each value of operator and
P = 0,048 the average profile.
• % Difference Chart: Look for long bars to identify outcomes with the greatest %
Differences among the outcome percentage profiles are significant (p < 0,05). You can difference between observed and expected counts.
conclude there is an association between Outcomes and operator.
Late
Average 24%
Wrong Quanti % Difference between Observed and
38%
Damaged Expected Counts
19% WrongDocs
19% Late
Operator A
Wrong Quanti
Damaged
Operator A 28%
WrongDocs
37%
25%
9%
Operator B
Operator B 20%
45%
11%
24% Operator C
Operator C 24%
31%
20%
-50% -25% 0% 25% 50%
24%
Positive: Occur more frequently than expected
0% 12% 24% 36% 48% Negative: Occur less frequently than expected
La valeur P = 0,048, ce qui signifie qu'elle est juste en dessous de 0,05 et que
HK doit être rejeté. Il existe une différence dans la distribution des erreurs.
Dans la figure de droite, vous pouvez voir que l'opérateur A produit
beaucoup moins de « mauvais docs » et beaucoup plus « d’endommagés ».
La figure en bas à droite est en fait une sorte de diagramme de Pareto, mais
avec des barres positives et négatives. Les barres à gauche indiquent qu'une
personne fait moins cette erreur que prévu (s'ils ont tous fait aussi bien ou
mal), tandis qu'une barre à droite signifie que cette erreur a plus été
commise. Cela donne comme option d'amélioration de rassembler
l'opérateur A et l'opérateur B pour apprendre l'un de l'autre : B peut
apprendre de A comment rédiger les documents, tandis qu'A peut
apprendre de B comment faire pour qu'il y ait moins d'endommagements
(les endommagements sont élevés chez A et faibles chez B).
Outre les résultats présentés dans la figure 7.32, Minitab fournit aussi les
résultats suivants dans les fiches d'output générées :
219
Figure 7.33
Figure 7.34
220
continu. Exemples de Y : vrai/faux, réussi/échoué, a répondu/pas de
réponse, fonctionne/est cassé. Le but de ce test est de déterminer si les
inputs continus (les X) contribuent de manière significative et ainsi prévoir
un certain résultat pour le Y. Le BFLP permet également de quantifier
l'impact de X sur un Oui ou un Non pour Y. Hypothèse :
Exemple
Figure 7.36
1,0
0,8
Probability of Event
0,6
0,4
0,2
0,0
20 30 40 50 60
Minutes
222
Nous cherchons un S ou un Z dans la courbe afin de vérifier s'il y a une trans-
ition des mauvais vers les bons dossiers suite au temps de traitement. C'est
dans ce cas clairement visible. Il semble y avoir un lien évident entre les
minutes consacrées et un bon dossier. Nous trouvons la confirmation dans
la Session Window : nous allons contrôler ce point à l'aide de la valeur P :
Résultat dans la Session Window :
Binary Fitted Line: BON/PAS BON versus Minutes consacrées
Link function Logit
Rows used 20
Response Information
Variable Value Count
Right/Wrong Right 13 (Event)
Wrong 7
Total 20
Deviance Table
Source DF Adj Dev Adj Mean Chi-Square P-Value
Regression 1 15,40 15,3984 15,40 0,000
Minutes spent 1 15,40 15,3984 15,40 0,000
Error 18 10,50 0,5833
Total 19 25,90
Model Summary
Deviance Deviance
R-Sq R-Sq(adj) AIC
55,60%
59,46% 14,50
Coefficients
Term Coef SE Coef VIF
-7,77
Constant 3,61
0,316
Minutes spent 0,150 1,00
Odds Ratios for Continuous Predictors
Odds Ratio 95% CI
223
Cela donne toute une série de résultats dans la Session Window et nous
allons vous expliquer les plus importants. Nous devons remonter dans la
Session Window pour en retrouver les plus intéressants. La partie ci-dessus
avec la bordure rouge contient la formule de la fonction de transition.
Précédemment, une valeur P (de 0,000) a été donnée, qui indique qu'il
existe un lien entre X et Y et que ce n'est pas un hasard. HK est rejeté : le
nombre de minutes de travail sur le dossier a une influence significative sur
la probabilité d'avoir un dossier sans erreur.
La comparaison qui calcule Y en tant que fonction de X figure ci-dessous.
Les coefficients sont complétés dans la formule :
Log (chances de réussite) = -7.796 + 0.3167 * nombre de minutes (x). Cela
permet de calculer (en complétant X) quelle est la probabilité d'avoir un
dossier sans erreur (Y) en y consacrant ce nombre de minutes de travail.
Pour obtenir la réponse, cette fonction doit être ajustée mathématiquement
grâce à la fonction Log qu'elle contient.
Par conséquent (avec les coefficients calculés par Minitab), la probabilité
d'avoir un bon dossier avec 20 minutes de temps de traitement est de
18,8% ; à 25 minutes, elle est de 53% ; à 30 minutes, elle est de 84,6% ; et à
40 minutes, elle est de 99%. Pour être certain à 95% que le dossier est bon,
nous devons y consacrer 34 minutes de travail.
7.3.15 Corrélation et régression
Tableau 7.14
Type de Type de Nombre Nombre de Application
données données de X sous-
Y X groupes
Continue Continue 1(+) NA Influence des X continus
sur Y continu
Une analyse de régression entre X continu et Y continu consiste en une
analyse de corrélation et de régression. Les hypothèses sont les suivantes :
HK X n'a pas d'influence sur le résultat de Y
HN X a une influence sur le résultat de Y
L'hypothèse porte sur la question visant à savoir s'il existe un lien ou non
entre X et Y. La régression sera traitée à l'aide de deux exemples.
224
7.3.15.1 Régression simple
Nous voulons savoir s'il existe un lien entre la quantité (pourcentage
pondéré) de revêtement appliqué sur une fibre et le régime (cf. figure 7.37).
Data file: « Finish on Yarn.mtw »
Figure 7.37
Couche extérieure
Rouleau d'application
Rouleau de
fibre
Pour étudier le lien, nous utilisons l'assistant de régression dans Minitab :
Figure 7.38
225
Nous complétons comme suit le Y et le X et nous laissons Minitab
déterminer le modèle :
Figure 7.39
Yes No
P < 0,001
4
15 20 25
RPM
Comments
The fitted equation for the quadratic model that describes the
% of variation explained by the model relationship between Y and X is:
Y = - 4,162 + 0,8710 X - 0,01750 X^2
0% 100%
If the model fits the data well, this equation can be used to
predict %Finish for a value of RPM, or find the settings for RPM
Low High that correspond to a desired value or range of values for
R-sq = 97,01% %Finish.
97,01% of the variation in %Finish can be explained by the
regression model. A statistically significant relationship does not imply that X
causes Y.
Figure 7.40
226
Il y a clairement un lien significatif entre X et Y (P<0,001), c'est une
comparaison quadratique et la fonction Y=f(x) est donnée. Les autres
onglets fournissent des informations de contrôle supplémentaires. Vérifiez
toujours la report card. Elle indique dans ce cas que l'échantillon n'est pas
assez grand pour donner une évaluation précise de l'intensité de la
comparaison (R2). Minitab observe aussi que la ligne 16 doit être vérifiée par
rapport à une erreur de mesure.
227
Figure 7.42
Multiple Regression for Viscosity
Summary Report
Low High
R-sq = 75,92%
Viscosity vs X Variables
Delustrant Throughput Quench Temp Velocity
680
660
640
01 02 03 10 12 14 0 5 0 0 75 00
0, 0, 0, 2, 2, 2, 24 24 25 5,
5
5, 6,
250
Populatie (in duizenden)
225
200
175
150
55 60 65 70 75
Aantal Ooievaars
Figure 7.43
228
INTERMEDE 2 :
Minitab recherche dans la régression multiple les liens (linéaires) entre les X
et le Y. La ligne la plus adaptée est définie (Y=aX+b, cf. explication à la Figure
7.44) et on détermine enfin si le lien est significatif (attention : aux USA et
au RU (et donc aussi dans Minitab), on utilise : Y=a+bX). Cela n'influe pas sur
les résultats, mais uniquement sur l'ordre.
Figure 7.44
Figure 7.45
229
La formule pour calculer la viscosité Y à partir des X est indiquée à la
figure 7.45.
Tout compte fait, le modèle trouvé est la comparaison la plus adaptée. On y
arrive en éliminant les X non significatifs du modèle et en calculant les liens
linéaires sur la base de ce qu'il reste.
Dans l'exemple que nous avons utilisé, nous avons choisi un modèle linéaire.
Dans certains cas, il y a des raisons de choisir un modèle différent.
7.5 Exercices
Distribution normale
a. Les données dans le graphique ci-dessous sont-elles distribuées
normalement?
230
Figure 7.46
Summary Report for Y
Anderson-Darling Normality Test
A-Squared 0,31
P-Value 0,547
Mean 44,447
StDev 14,096
Variance 198,702
Skewness 0,192653
Kurtosis -0,184297
N 240
Minimum 9,310
1st Quartile 34,300
Median 43,610
3rd Quartile 53,900
Maximum 83,300
95% Confidence Interval for Mean
15 30 45 60 75 42,655 46,240
95% Confidence Interval for Median
41,160 46,220
95% Confidence Interval for StDev
12,938 15,484
Mean
Median
41 42 43 44 45 46
Ecart-type
Dans un ensemble de données à répartition normale, la moyenne est de 99
et l’écart-type de 3. Entre quelles valeurs se trouvent 68,26% des données ?
231
232
PARTIE 4 : AMELIORER
233
234
CHAPITRE 8 : DETERMINER LA SOLUTION
OPTIMALE
8.1 Introduction
Dans le chapitre précédent, les causes potentielles de variation de Y ont été
réduites aux causes premières, que nous traiterons. Dans ce chapitre, nous
cherchons la solution optimale pour gérer et limiter l'influence des causes
premières sur Y, ou pour les optimiser afin de s'assurer que l'output
corresponde plus étroitement aux exigences des clients. Ce chapitre se
concentre sur la production de solutions et le choix de la meilleure solution.
235
8.2 Design Of Experiments
Plus le nombre de X que vous pouvez inclure est grand, plus vous
bénéficierez de l'approche systématique de la DoE.
236
8.2.2 Terminologie DoE
Dans ce paragraphe, les termes spécifiques à la DoE sont abordés plus en
détail.
237
1. Définir le problème
2. Définir l'objectif
3. Sélectionner l'output (réponse)
4. Sélectionner les facteurs d’input (X)
5. Sélectionner les niveaux de facteur
6. Sélectionner le dispositif expérimental
7. Collecter les données
8. Analyser les données
9. Tirer les conclusions
1. Définir le problème
Ici, vous pouvez utiliser les outils dont nous avons discuté lors de la phase de
définition, pour passer d'un problème (cf. VOC) à une description concrète
de ce que vous voulez améliorer.
2. Définir l'objectif
• Trouver la relation entre les facteurs d’input (X) et les facteurs d'output
(Y).
• Séparer les causes premières des causes moins pertinentes.
• Trouver l'interaction entre les facteurs d’input et leur influence sur Y.
• Trouver le réglage optimal des facteurs d’input (les X).
238
3. Sélectionner l'output (réponse)
La réponse d'une DoE est en général le Y de votre projet. Cet élément a été
défini et opérationnalisé dans la phase de mesure. Dans le cas d'une DoE, le
Y doit être une entité continue, ou éventuellement un comptage.
Les facteurs d'input pour une DoE sont les causes de la variation du Y (donc
X). Ils sont inventoriés dans la phase d'analyse et sont ramenés aux causes
premières. Les facteurs (inputs) peuvent être soit continus soit discrets.
Lors de la sélection des niveaux de facteur, une distinction est faite entre les
données continues et discrètes.
239
Tableau 8.0
Un golfeur veut améliorer son jeu. Il joue avec deux types de clubs (Royal et
Custom), deux types de balles de golf (Nike et Dunlop) et sur deux types de
parcours de golf (un parcours protégé dans les bois, avec peu de vent, et un
parcours à la mer, avec beaucoup de vent). Ci-dessous, nous abordons les
étapes 1 à 6 pour concevoir l'expérience :
240
• Sélectionnez l'output : la distance entre le té et l'endroit où la balle
atterrit (Y).
• Sélectionnez les facteurs d'input : clubs de golf, balles de golf,
conditions éoliennes (les facteurs qui ne peuvent être contrôlés doivent
être définis aussi, comme l'humidité, la hauteur de l'herbe, la forme du
golfeur, etc.).
• Sélectionnez les niveaux de facteur :
Tableau 8.1
Facteurs Niveau 1 Niveau 2
Clubs Royal Custom
Balles Nike Dunlop
Conditions éoliennes Beaucoup de vent Pas de vent
Tableau 8.2
Club Balle de golf Conditions éoliennes
Royal Nike Pas de vent
Custom Nike Pas de vent
Royal Dunlop Pas de vent
Custom Dunlop Pas de vent
Royal Nike Beaucoup de vent
Custom Nike Beaucoup de vent
Royal Dunlop Beaucoup de vent
Custom Dunlop Beaucoup de vent
241
d'ordre supérieur sont faibles ou négligeables, moins d’expériences
suffiront. C'est ce qu'on appelle un concept factoriel fractionnaire. Ce
concept est souvent appliqué au début du projet ou de l'analyse pour
dépister les X et rapidement séparer les causes premières de la variation des
causes moins pertinentes.
Figure 8.0
Outre l'influence des facteurs sur l'output, les facteurs peuvent aussi
s’influencer les uns les autres. C'est ce qu'on appelle l'interaction et c’est
une notion importante dans la DoE.
242
grand. L'accélération et le niveau de la pédale d'accélérateur interagissent
donc.
D'une manière générale, il est supposé que la réponse d'un facteur sur Y
détermine 90% du résultat, et l'interaction de deux facteurs 10% de cela
tout au plus. L'interaction de trois facteurs détermine 1%, etc. Ce principe
est connu sous le nom de Principle of Sparsity of Effects (parcimonie des
effets) et est représenté comme suit dans le tableau 8.3.
Tableau 8.3
Interaction Contribution
Principaux effets du facteur A 90%
Interaction bidirectionnelle de AxB 9%
Interactions tridirectionnelles de 0,9%
AxBxC
Interaction quadridirectionnelle de 0,09%
AxBxCxD
243
Nous établissons les expériences de manière à ce que AxBxC = D s'applique
toujours, parce que cela fournit une matrice joliment distribuée (que l'on
appelle orthogonale).
EXP. A B C D
1 1 1 1 1
2 1 1 -1 -1
3 1 -1 1 -1
4 1 -1 -1 1
5 -1 1 1 -1
6 -1 1 -1 1
7 -1 -1 1 1
8 -1 -1 -1 -1
Nous aurions pu tout aussi bien effectuer l'autre moitié des 16 expériences,
dans ce cas, la matrice aurait ressemblé à ceci (maintenant nous avons pris
AxBxC = -D)
9 1 1 1 -1
10 1 1 -1 1
11 1 -1 1 1
12 1 -1 -1 -1
13 -1 1 1 1
14 -1 1 -1 -1
15 -1 -1 1 -1
16 -1 -1 -1 1
244
mais pas des interactions tridirectionnelles sur Y, qui coïncident avec l'effet
de D. Nous qualifions cet état « d’aliasé » (ou « confondus »). Nous disons
alors : l'interaction tridirectionnelle AxBxC est aliasée (ou confondue) avec
D. On parle aussi d'interaction mixte.
245
Ce dernier point nous amène à la notion de Résolution DoE. La résolution
est le pouvoir distinctif d’un concept. Lorsque nous « aliasons » les
interactions tridirectionnelles avec des effets principaux et les interactions
bidirectionnelles avec d'autres interactions bidirectionnelles, nous appelons
cela un concept résolution IV (comme un aide-mémoire: le IV peut être
divisé en 3+1 ou 2+2).
246
Minitab fournit des lignes directrices pour le nombre d'expériences, étant
donné le nombre de facteurs :
Minitab: Stat -> DOE -> Factorial -> Create factorial design -> display
available design
Figure 8.1
Dans la figure 8.1, on peut en déduire que le concept recommandé pour une
expérience de 5 facteurs est « semi-fractionné », car on obtient une
résolution V. En tout, 16 expériences (au lieu de 32) doivent être menées.
Pour concevoir cette expérience dans Minitab, rendez-vous sur :
Minitab: Stat -> DOE -> Factorial -> Create Factorial Design
247
Figure 8.2
Figure 8.3
248
Nous n'avons pas besoin de points centraux ni de blocs, donc nous les
gardons à leurs valeurs par défaut. Plus tard, nous allons utiliser des points
centraux pour déterminer si nous pouvons tracer une ligne droite quand
nous déterminons si un effet linéaire sur Y dépend de X. Nous allons utiliser
les blocs pour nous assurer que nous passons moins de temps sur les
réglages entre les expériences.
Comme indiqué précédemment, les expériences factorielles fractionnaires
peuvent être « pliées », pour ajouter des sommets manquants au design et,
ce faisant, transformer un concept semi-fractionné en un concept factoriel
complet avec deux blocs. Le pliage peut donc être interprété comme l'ajout
de sommets manquants. Tout cela nous enseigne que, lorsque le nombre de
facteurs augmente, on a besoin de concepts factoriels fractionnaires pour
limiter le nombre d’exécutions. Quelques règles générales :
D'une manière générale, le but d'un screening DoE consiste à découvrir les X
qui sont et qui ne sont pas pertinents. Surtout dans le cas des systèmes ou
des processus que vous ne connaissez pas bien, c’est un outil très utile pour
obtenir rapidement des informations sur les X dont vous aurez besoin dans
votre projet.
249
fonctionnent d’une façon similaire, mais ont été spécialement conçus pour
réduire les inconvénients des concepts Résolution III.
Conclusion :
Après avoir créé le concept, il est temps de réaliser les expériences. Les
données mesurées pour Y dans l'expérience, qui étaient basées sur les
réglages pour les X correspondants, fournissent les informations pour
construire le modèle de processus.
Il est aussi théoriquement possible de procéder à une DoE basée sur des
données historiques. Cela nécessite des mesures qui peuvent, en quelque
sorte, servir de sommets au cube DoE. Il est à prévoir qu'il y aura plus de
bruit dans les données historiques par rapport aux expériences planifiées.
Les pièges lors de la conduite d'une DoE basée sur des données historiques
sont les suivants :
250
Figure 8.4
Dans cette étape, le modèle est analysé sur la base des résultats des
expériences.
251
Tableau 8.5
Run A B C Y
1 -1 -1 -1 12,4
2 1 -1 -1 17,8
3 -1 1 -1 11,1
4 1 1 -1 12,2
5 -1 -1 1 13,2
6 1 -1 1 15,5
7 -1 1 1 14,1
8 1 1 1 12,1
moy.- 12,7
moy.+ 14,4
effet 1,7
Les effets interactifs peuvent être calculés d'une manière similaire. Une fois
que les colonnes d'interaction de la matrice ont été générées, les mêmes
calculs sont effectués.
252
« L’orthogonalité » mentionnée plus haut (ce qui signifie que la matrice est
mathématiquement parlant parfaitement équilibrée) permet de calculer ces
effets le plus simplement possible. Si le design n'était pas orthogonal, les
calculs seraient beaucoup plus complexes, voire impossibles.
Sur la base d’un exemple, nous allons aborder le protocole pour l'analyse
des concepts expérimentaux. Le protocole contient les étapes suivantes :
Exemple
253
la taille du masque (quelle est la taille des zones qui sont exposées à la
lumière) peuvent également jouer un rôle important.
Figure 8.5
Allez à :
Minitab: Stat -> DoE -> Factorial -> Analyze Factorial Design
255
Figure 8.6
Cliquez sur « Graphs » et fixez sous les options le niveau de confiance à 90%.
Figure 8.7
256
Cochez « Normal » et « Pareto ». Alpha est à présent sur 0,1 (car nous ne
voulons pas directement déclarer comme « insignifiantes » les valeurs pour
P entre 0,05 et 0,10).
Ensuite, générez les graphiques.
60
D Mask Dimension
50
E Etch Time
40
30
20
10
5
1
0 5 10 15 20 25 30 35
Effect
Lenth’s PSE = 0,9375
0 5 10 15 20 25 30 35
Effect
Lenth’s PSE = 0,9375
257
Dans les deux graphiques, nous voyons quels facteurs et interactions ont le
plus d'influence. A l'aide de la ligne dans le graphique Pareto, nous voyons
aussi quels sont les éléments significatifs à un Alpha de 0,10. Dans le tracé
de probabilité normale, ils sont représentés par de petits carrés rouges, ce
qui signifie que la contribution de ces facteurs et interactions ne peut pas
être imputée au hasard. Ils s'écartent donc significativement du « hasard »
ou de la normalité.
En plus des graphiques aux figures 8.8 et 8.9, les tracés suivants peuvent
être générés :
Figure 8.10
258
Vérifiez sous « Graphs » si les bons graphiques sont créés.
Figure 8.11
259
Vérifiez si dans « Interaction plot » (sous « Options »), on a coché l'option :
« Display Lower Left Matrix ».
Figure 8.13
Choisissez Cube Plot sous Stat > DoE > Factorial > Cube Plot, et sélectionnez :
Data Means.
Main Effects Plot for Yield
Fitted Means
Aperture Setting Exposure Time Development Time Mask Dimension Etch Time
50
Mean of Yield
40
30
20
10
Small Large -0,2 0,2 30 45 Small Large 14,5 15,5
Figure 8.15
260
Vous trouverez ici les résultats du Main Effects Plot (tracé des effets
principaux), de l'Interaction Plot (tracé d'interaction) et du Cube plot (tracé
du cube).
Dans le tracé des effets principaux, on voit l'influence des 5 facteurs sur le
rendement. L'inclinaison de la ligne, de faible à élevé, renseigne dans quelle
mesure le Y (rendement) est influencé par cet élément.
40 45
20
Aperture Set * Mask Dimensi Exposure Tim * Mask Dimensi Development * Mask Dimensi
60 Mask
Dimensi
40 Small
Large
20
Aperture Set * Etch Time Exposure Tim * Etch Time Development * Etch Time Mask Dimensi * Etch Time
60 Etch
Time
40 14,5
15,5
20
Figure 8.16
Dans le tracé des interactions, nous voyons les interactions possibles des
différentes paires de facteurs. Dans chaque petit graphique, vous pouvez
voir sur l'axe Y ce que le rendement a été, compte tenu des réglages des
deux facteurs auxquels le graphique se rapporte. Quand on voit que, par
exemple dans le graphique de la taille d'ouverture vs le temps d'exposition
(le graphique en haut à gauche), les lignes ne sont PAS parallèles, cela
signifie que le passage d'un facteur de faible à élevé lors d'un réglage de
l'autre facteur a un effet différent que lors de l'autre réglage de cet autre
261
facteur. Cela signifie qu'il y a interaction. Si les lignes sont parallèles, ce n'est
pas le cas et il n'y a donc pas d'interaction.
Figure 8.17
52 30
22 15
8 10
15,5
Etch Time
60 44
14,5
34 50
0,2
Exposure Time 16 21
45
9Development Time 6
-0,2 30
Small Large
Aperture Setting
Small Large
Mask Dimension
Dans le tracé de cube, on voit quels sommets du cube ont été inclus dans les
expériences (et, par conséquent, ceux qui ne le furent pas) et quelles ont été
les valeurs mesurées de ces sommets dans l'expérience.
262
Il n'y a pas de valeurs P incluses (seulement des astérisques), parce qu'avec
ce concept et cette résolution et avec ce nombre limité d'expériences, il n'y
a pas suffisamment de degrés de liberté pour être en mesure de tout
calculer. Dans le cas de 16 mesures, nous pouvons seulement calculer 15 (n-
1) données indépendantes, et dès que nous atteignons ce nombre, il n'y a
plus de degré de liberté pour calculer les valeurs P et, par exemple, les
erreurs (residual error). Cela signifie que, pour obtenir les valeurs P, nous
devons cesser de calculer un certain nombre de résultats moins pertinents.
Dans le modèle jusqu’à présent, tous les facteurs ont été inclus. Cependant,
nous nous intéressons aux causes premières de la variation. La question vise
à savoir quels sont les facteurs significatifs et quelles sont les interactions
significatives dans leur contribution au Y. La méthode pour arriver à
démontrer les facteurs significatifs à l'aide des valeurs P est la réduction du
modèle. Cela signifie que nous simplifions le modèle en supprimant un
263
certain nombre de termes moins importants (notamment les interactions).
Bien entendu, nous commençons par éliminer les termes avec le plus petit
effet. Quand on regarde le diagramme de Pareto, nous voyons une
transition après l'interaction AB. Les termes suivants ont un effet beaucoup
plus faible sur la réponse. La réduction du modèle se fait de la manière
suivante :
Minitab: Stat -> DOE -> Factorial -> Analyze factorial design
Cliquez sur « terms » et sélectionnez les termes les plus importants à inclure
dans le modèle. Nous ne supprimons pas les principaux effets, même s'ils
semblent moins importants, car sinon, leurs interactions ne peuvent plus
être calculées.
Figure 8.18
Figure 8.19
264
Pareto Chart of the Standardized Effects
(response is Yield; α = 0,1)
Term 1,86
Factor Name
B A Aperture Setting
B Exposure Time
C Development Time
A
D Mask Dimension
E Etch Time
C
AB
DE
0 10 20 30 40 50
Standardized Effect
Les termes en gras sont significatifs. Malgré le fait que les facteurs D et E
(dimension de masque et temps de gravure) ne soient pas significatifs, ils ne
peuvent pas être exclus du modèle, parce que leur interaction (DxE) est
importante, numériquement parlant. À la lumière du tableau Alias
susmentionné, nous pouvons conclure avec un degré relativement élevé de
certitude que ce n'est pas DxE, mais plutôt l'interaction AxBxC qui crée la
valeur significative ici.
265
Dans les résultats, on utilise parfois le terme : « coded units ». On entend
par là que l'on calcule avec les niveaux -1 et 1 pour les facteurs. Il arrive
parfois que les véritables valeurs des niveaux soient prises lors du calcul, et
alors, Minitab calcule le modèle en « uncoded units ». Ce n'est pas toujours
mentionné.
Le principe visant à exclure les termes avec le moins d'effet sur Y peut être
un processus d'essais et erreurs. La valeur P reste l'outil d'évaluation pour
déterminer si les facteurs et les interactions sont significatifs. Nous
« balayons » le tableau jusqu'à ce qu'il ne reste que des termes significatifs,
et laissons toujours tous les principaux effets dans le modèle.
Répétitions et réplications
Dans l'exemple, un point de donnée a été utilisé par expérience. Il aurait pu
y avoir des répétitions pour obtenir plus de points de données. Bien que cela
n’augmenterait pas les degrés de liberté, cela augmenterait la sensibilité
(moins de bruit), parce que nous saurions mieux ce que valent l'écart-type
et le bruit d'un point de mesure. Avec un point de mesure par expérience,
rien ne peut être dit à ce sujet.
Avec de véritables répétitions (à court terme), la moyenne des mesures peut
être utilisée. L'écart-type aurait par ailleurs pu être utilisé comme une
réponse supplémentaire (donc une 2e colonne pour Y). On peut ainsi mieux
comprendre quels sont les facteurs qui ont le plus d'influence sur la
variation de la réponse. Il s'agit en fait d'une analyse de sensibilité.
266
L'avantage des réplications est que la variation à long terme est illustrée et
qu’elles fournissent plus d'informations sur lesquelles fonder des
conclusions.
Avec un résidu, on vise l'objectif suivant : sur la base des points de données,
un modèle (mathématique) optimal a été établi et correspond de manière
optimale aux points de données. Toutefois, chaque point de données
présente un certain écart par rapport à ce modèle. L'écart pour une mesure
entre la valeur mesurée et la valeur calculée d'après le modèle est appelé le
résidu. L’analyse des résidus est connue sous le terme de « diagnostics ». Les
graphiques de diagnostic qui présentent ces résidus peuvent être générés
dans Minitab comme suit :
Minitab : Stat -> DOE -> Factorial -> Analyze Factorial Design
267
Figure 8.20
95
90
80
70
Percent
60
50
40
30
20
Figure 8.21
10
1
-3 -2 -1 0 1 2 3
Residual
268
Vu que le modèle est basé sur le meilleur ajustement possible des valeurs
mesurées, on s’attend à ce que, lorsque l’on fait un graphique de
distribution normale des résidus, il indique que les résidus sont distribués
normalement. Cela signifie que, dans un graphique de distribution normale,
les points sont situés sur une ligne droite. Dans la pratique, cela signifie que
la plupart des points sont proches du modèle et que moins de points
s’écartent du modèle. Les points suivent en effet la distribution normale.
Figure 8.22 Histogram
(response is Yield)
3
Frequency
0
-2 -1 0 1 2
Residual
Versus Fits
(response is Yield)
1
Residual
-1
-2
0 10 20 30 40 50 60
Fitted Value
1
Residual
-1
-2
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
Observation Order
Enfin, les résidus sont portés par rapport à l'ordre des mesures. Ce
graphique ne peut pas présenter d'entonnoir, ni d'augmentation ou de
diminution progressive. Cela voudrait notamment dire que la quantité de
déviation a augmenté ou est devenue moindre au cours de l'expérience.
Cela pourrait être lié à un facteur extérieur qui a perdu ou gagné de
l’influence pendant l'expérience, par exemple une augmentation de l'usure
ou d'une chute de la température ambiante.
L’optimiseur de réponse
270
Lorsque le modèle a une bonne adéquation en comparaison avec les
données obtenues dans la pratique, Minitab dispose d'un outil qui vous aide
à trouver les meilleurs réglages (désirés) pour un certain output du
processus. Cet outil est l'optimiseur de réponse : Minitab: Stat -> DOE ->
Factorial -> Response Optimizer
Figure 8.25
271
Figure 8.26
Les réglages dépendent de l'objectif que vous voulez atteindre. Cela peut
être un objectif basé sur une cible (par exemple, atteindre une certaine
distance avec une catapulte) ou un objectif qui est le plus élevé ou le plus
faible possible.
Figure 8.27
Pour chaque facteur, les réglages hauts et bas sont affichés dans la première
ligne. Les chiffres en rouge indiquent le réglage optimal. En double-cliquant
dessus, ils peuvent être modifiés. La ligne rouge dans le graphique indique
également le réglage optimal pour le facteur en question. Dans Minitab, la
ligne de chaque facteur peut être déplacée pour changer le réglage. L'output
optimal de Y est 63.125. Modifier le réglage optimal réduira Y.
Confirmation
Cette dernière étape de l'analyse DoE est l'une des étapes les plus critiques.
La confirmation signifie que vous acceptez les facteurs tels que calculés par
272
l'optimiseur de réponse et que vous allez mesurer la réponse pour comparer
le résultat avec le résultat calculé. Il est important de tester différents
réglages répartis sur le champ de travail afin de déterminer si le modèle
s'applique à l'ensemble du champ de travail. Suffisamment de données
doivent être collectées pour faire une bonne évaluation de la moyenne et de
l'écart-type.
- Il peut y avoir une interaction qui n'a pas été incluse dans le
modèle, mais qui a une influence.
- Il peut y avoir eu un changement dans le processus dont
vous n'êtes pas au courant.
- L'hypothèse que Y dépende de X d'un point de vue linéaire n'est
pas correcte. Si nous avions une expérience à deux niveaux, seule
une ligne droite pourrait être tracée entre les deux observations,
alors que cela devrait peut-être être une courbe.
Dans ce cas, vous pouvez envisager de choisir un concept avec moins de
facteurs (mais les principaux), avec plus de niveaux par X, afin de mieux
comprendre l'influence de ces X sur Y.
Un réglage de point central d'un facteur est la valeur entre les deux
extrêmes (niveau bas et niveau haut). Dans la pratique, la valeur de ce point
central est 0 dans le cas d'un modèle factoriel (parce que faible valait -1 et
haut valait +1).
Sur la base de l'exemple mentionné précédemment concernant les circuits
intégrés, nous allons maintenant aborder la valeur des points centraux. Dans
le concept de l'exemple, nous incluons 3 points centraux pour déterminer
quelle est l'influence du point central sur les différents facteurs.
273
Ajouter des points centraux n'est possible que lorsque vous définissez le
concept DoE. Si vous les ajoutez simplement dans la feuille de calcul, ils ne
sont pas repris dans l'analyse.
Si des points centraux sont souhaités, ils doivent être indiqués à temps dans
Minitab : Stat > DoE > Create Factorial Design, Design choisir : Designs.
Figure 8.28
Dans la figure 8.28, il y a deux points centraux pour chaque bloc. Dans le cas
d'un concept avec seulement des X continus, cela donne dans notre concept
2 points centraux (deux réplications au cœur du cube). Cela signifie que, au
lieu de 16 expériences, il y en a maintenant 18. Cependant, si vous
sélectionnez 2 blocs, ou si l'un des facteurs est discret (et n'a pas de valeurs
intermédiaires pour X), il y a 4 points centraux (2 dans chaque surface
latérale du cube). Cela signifie qu'il y a 20 points de données en tout.
Si vous optez pour 3 blocs ou si deux facteurs sont discrets, vous avez pour
deux points de centrage par bloc 6 points de centrage supplémentaires. Ils
se trouvent à mi-chemin sur les axes du cube. Le concept se compose donc
au total de 16 + 6 = 22 expériences.
274
Design de la surface de réponse
Outre les concepts factoriels (très utilisés) abordés ci-dessus, il existe de
nombreux autres modèles. Si vous avez déterminé quels sont les principaux
facteurs dans votre projet qui contribuent à votre Y, et que vous souhaitez
déterminer les réglages optimaux, un concept de screening est moins
approprié et vous avez besoin d'un concept d'optimisation. Le concept de
modélisation de surface de réponse (RSM) est un tel concept d'optimisation.
Il vous permet de réaliser des expériences sur plusieurs niveaux pour un
nombre limité de facteurs, de sorte que les liens non linéaires puissent aussi
être cartographiés.
Cela signifie que vous obtenez non seulement les sommets d'un cube, mais
aussi plus de points par niveau et une forme géométrique différente.
Supposons que vous ayez conservé deux X importants pour votre projet que
vous souhaitez optimiser, un RSM pour 2 facteurs est alors un excellent
choix.
Vous trouverez ci-dessous une illustration graphique de deux concepts
possibles suivant ce modèle, avec 2X et 3 ou 5 niveaux par X, et 14
expériences à chaque fois. Ces points de données sont également distribués
de manière bien symétrique (orthogonalement).
3,5
p in
3,0
2,5
2,0
Figure 8.29 a et b
275
Pour créer ce concept dans Minitab, sélectionnez:
Stat > DoE > Response Surface > Create Response Surface design > Designs,
Figure 8.30
Vous voyez que 13 ou 14 expériences sont nécessaires. Plusieurs points
(principalement le point important au centre) sont réalisés plusieurs fois. Les
deux choix (13 et 14 points) sont bons, nous optons par exemple pour
13 points parce que c'est souvent suffisant dans la pratique.
Après avoir effectué les expériences et avoir saisi les résultats dans Minitab,
l'analyse de ce type de concept est réalisée comme vous le feriez pour un
concept factoriel. A nouveau, un modèle est dressé, les graphiques peuvent
être créés et après avoir déterminé le meilleur modèle, vous pouvez utiliser
un optimiseur de réponse pour faire des prédictions sur ce que sera le Y,
compte tenu de certains X. Il est à nouveau possible d'atteindre une certaine
valeur cible du Y. Minitab vous donne alors les paramètres des X à saisir.
276
8.3 Méthode Essai – Erreur
Si les X ne peuvent pas être isolés ou ajustés indépendamment à des valeurs
spécifiques, vous avez besoin d'utiliser la méthode Essai – Erreur (Trial
Experiments).
L’environnement opérationnel
278
La synthèse consiste à prendre les meilleurs éléments de toutes les solutions
possibles pour générer de meilleures solutions. Concentrez-vous sur une
cause (X) à la fois. Commencez par la cause première la plus importante.
• Le brainstorming
• Les interviews
• Les questions qui incitent à la réflexion
• Le mind mapping
• Six thinking caps (méthode des 6 chapeaux)
• Building on ideas
• Le benchmarking
8.3.2.1 Le brainstorming
Le brainstorming est une technique très utilisée. Il encourage la créativité et
élargit la réflexion pour permettre d'identifier tous les aspects d'un
problème ou d’une solution. Il offre un large champ de possibilités. En
encourageant les participants à exprimer toute idée qui leur vient à l’esprit,
il aide le groupe à développer de nombreuses idées rapidement. Une bonne
séance de brainstorming fournit un environnement où les gens ne sont pas
jugés, mais encouragés à proposer des idées. Toutes les idées sont inscrites.
Puisque tous les membres de l'équipe participent activement au processus
de brainstorming, il se développe un niveau d’appropriation de la solution
en cours de discussion et des activités associées. Lorsque les membres de
l'équipe orientent personnellement une décision, il est plus probable qu'ils
vont soutenir ces solutions. Les résultats d'une session de brainstorming
peuvent également être utilisés comme input pour d'autres outils.
279
1. Indiquez clairement l'objectif. Discutez et clarifiez le problème.
2. Donnez à chacun quelques minutes de silence pour réfléchir à la
question et notez leurs idées individuellement.
3. Rassemblez les idées et inscrivez-les sur un tableau de conférence
- Ne discutez ou ne critiquez PAS les idées.
- Construisez sur la base des idées des autres.
4. Lorsque le processus ralentit, alimentez la session de brainstorming en
ajoutant d'autres idées.
5. Clôturez la session de brainstorming en évaluant la liste des idées :
- Veillez à ce que chacun comprenne bien chaque idée.
- Consolidez les idées similaires.
- Précisez les idées et demandez si nécessaire des informations plus
spécifiques.
Enfin, voici un certain nombre de choses à faire et à ne pas faire lors d’une
séance de brainstorming :
A faire
A ne pas faire
280
Il existe un certain nombre de techniques pour stimuler la formation des
idées:
• Canaliser : il s'agit en fait de l’inverse d’un diagramme d'Ishikawa. En
partant du X trouvé, réfléchissez à des domaines (6M ou 4P) qui
peuvent conduire à une solution.
• Analogies : voyez où cela fonctionne bien et copiez.
• Anti-solution : réfléchissez à ce qui est nécessaire pour faire encore
pire. Inversez et vous aurez les améliorations.
• Brain wrinting : laissez les gens dessiner et écrire leur solution, passez
les feuilles au voisin et laissez-le élaborer dessus jusqu'à ce que chacun
ait fourni sa contribution à l'idée.
• Analyse du champ de force (Force Field Analysis): l'équipe effectue un
brainstorming pour les X trouvés sur les forces qui augmentent ces X
(flèches vers le haut) et sur les forces qui diminuent ces X (flèches vers
le bas). Ensuite, à l'aide d'une série d'actions à mettre en place, cet
équilibre entre ces forces sera modifié afin que notre projet aille dans la
bonne direction, en diminuant ou en augmentant certaines de ces
forces.
Figure 8.31
282
7. Utilisez les 6 questions : Quand ? Quoi ? Comment ? Pourquoi ? Où ?
Qui ?
Figure 8.32
283
Les points de vue sont traduits en chapeaux d'une certaine couleur.
Figure 8.33
Chapeau noir : la personne négative, mettant l'accent sur tout ce qui peut
aller mal, est incorrect ou est risqué. C'est important, car cela attire
l'attention sur les points faibles d'un plan. Cela vous permet de les éliminer
ou de penser à une solution alternative.
284
Les six chapeaux peuvent être utilisés de différentes façons au cours d'une
réunion ou d’une session. Envisagez d'appliquer les directives suivantes.
Exemple (cas)
Chapeau rouge: le bâtiment proposé est moche. Même s'il est beaucoup
plus rentable que les bâtiments actuels, personne ne voudra y travailler.
285
attractif que ceux de la concurrence, les organisations peuvent décider de
s'installer dans un autre bureau, plus beau et avec le même loyer.
Chapeau bleu : utilisé par le président de la réunion pour circuler parmi les
perspectives. Il ou elle peut si nécessaire changer le chapeau des
participants.
286
8.3.2.6 Construire sur les idées
La technique « construire sur les idées » est utilisée pour construire sur les
idées qui peuvent sembler à première vue inutilisables ou absurdes.
L'équipe modifie l'idée de manière à ce qu'elle devienne meilleure et plus
utilisable. Une meilleure idée surgit toujours de l'approfondissement des
aspects utiles d'une telle idée.
Figure 8.34
Figure 8.35
8.3.2.7 Le benchmarking
Le benchmarking est un outil que les entreprises utilisent pour comparer
leurs performances ou processus à celui du « meilleur de la classe ». En
examinant comment ces « meilleurs de la classe » atteignent leur statut
287
actuel et en utilisant ces informations pour ses propres processus, des idées
d'amélioration peuvent être générées. Cela évite aux participants d'avoir à
« réinventer la roue » et conduit à des résultats rapides. Si les membres de
l'équipe observent que le processus permet dans une autre organisation
d’enregistrer des performances d'un niveau supérieur, on aura tendance à
accepter que l'on doive non seulement faire mieux, mais que l'on puisse
aussi faire mieux.
288
Sur la base de ce premier screening, un certain nombre de solutions seront
abandonnées. Une évaluation des risques est effectuée pour les solutions
restantes à l'aide d'une FMEA.
Clients : y a-t-il des effets négatifs potentiels sur les clients suite aux
nouveaux changements non testés du processus ou suite à des défauts
potentiels ?
Entreprise : est-ce que le test d'un nouveau processus a un effet négatif sur
d’autres objectifs de l'entreprise ?
• Qualité technique
• L’acceptation par les parties concernées
289
Tableau 8.6
Qualité technique Acceptation
Clients Risquons-nous de laisser les Les clients accepteront-ils le
clients entrer en contact avec changement ?
des défauts ?
Employés Est-ce que le nouveau Les employés accepteront-ils
processus a une incidence sur le changement ?
la sécurité des employés ?
Parties Est-ce que le nouveau Les principales parties
prenantes processus a un impact négatif prenantes accepteront-elles
sur les objectifs de le changement ?
l'entreprise, comme les
coûts ? Est-ce que le nouveau
processus influe sur
l'environnement ?
Collaboration Y a-t-il des problèmes Les collaborateurs
concernant la collaboration ? accepteront-ils et suivront-il
les nouvelles procédures ?
Etudiez pour chaque solution la manière dont la mise en œuvre peut influer
sur les risques pour : les clients, les coûts, la sécurité, l'IT, l'environnement
et les autres domaines possibles.
La FMEA est un outil parfait pour effectuer une évaluation des risques. La
FMEA a déjà été abordée au paragraphe 6.2.4. Les risques sont quantifiés
avec une FMEA et, si possible, on définit des contre-mesures qui limitent ou
éliminent les risques.
290
l’expérimentation. Le nombre de solutions possibles a été réduit. Dans cette
dernière étape des expériences d’essai, une solution appropriée doit être
identifiée. Trois outils d’aide à la décision sont abordés ci-dessous. Ils
peuvent être comparés à la matrice Cause et Effet citée précédemment.
Exemple
Figure 8.36
Méthode
Les critères d'évaluation sont basés sur les exigences des clients, les CTQ du
projet et ce que l'entreprise considère comme important. Exemples de
critères par rapport auxquels les solutions alternatives peuvent être
évaluées :
• Conforme à la stratégie
• Impact sur les coûts / revenus
• Le temps nécessaire pour la mise en œuvre
• Les investissements en capital
• Les coûts d'exploitation
• Les risques de mise en œuvre
• Conforme aux exigences des pouvoirs publics
• Environnement / Sécurité
• Restrictions politiques
292
Faites une sélection des critères qui sont les plus importants pour le projet
en question. N'utilisez pas trop de critères, 5 à 8 est un bon nombre.
3. Sélectionnez la référence
Premier tour
293
Figure 8.37
295
Speed of impact on
Figure 8.38 implemen- the
impact on Acceptance Cost to calculation Rating
CTQ by society implement column score
tation Environment
Speed of implemen-
tation 1 1/3 1/5 1/3 1/5 0,25 5
impact on the
Environment
3
1 1/3 1 1/3 0,61 12
impact on CTQ 5 3
1 5 1 1,85 37
Acceptance by
society
3 1 1/5
1 3 1,04 21
Cost to implement 5 3 1 1/3
1 1,24 25
Pour clarifier l'étape 4, regardons d’un peu plus près la vitesse. Le score de
0,25 dans la colonne de calcul a été obtenu de la manière suivante :
O Oc Oc Oc Oc O
H a H a
dOcH Hce bcH aOc
+ + + + = = 0,25
Ob e
Pour déterminer la hiérarchie entre les critères, une échelle de 1-9 avec les
définitions suivantes est la plus utile (Saaty) :
296
8.3.6 Réaliser l’expérience d’essai
Au cours des étapes antérieures, les techniques de sélection de la solution
au problème ont été examinées. Maintenant que la solution a été
sélectionnée, une expérience d'essai devra démontrer si la solution a l'effet
désiré. Cette expérience d'essai est menée dans le cadre d'un pilote à petite
échelle, dans des conditions d'entreprise. Le pilote est examiné au
chapitre 9. S'il s'avère que la solution choisie n'a pas l'effet escompté dans la
pratique, une solution alternative peut être testée.
8.4 Exercices
Indiquez les points de vue que les chapeaux affichés ci-dessus représentent.
297
298
CHAPITRE 9 : TESTER LA SOLUTION
9.1 Introduction
Dans le chapitre précédent, nous avons déterminé ce que sera la solution
optimale au problème. Cette solution doit déboucher sur une meilleure
performance du Y. Le choix est soutenu par des données et des
connaissances de l'organisation. Cependant, toute solution doit faire ses
preuves dans la pratique. La vaste mise en œuvre d'une solution peut
entraîner d'importants changements et avoir des conséquences pour
l'organisation. C'est pourquoi il est recommandé de tester la solution
proposée à une petite échelle dans la pratique, ce qui permettra de mieux
comprendre les effets et nous montrera comment la déployer efficacement
à plus grande échelle. Ce déploiement à petite échelle est appelé un
« pilote ». Dans ce chapitre, nous abordons l'exécution d'un pilote - pour
tester la solution avant de procéder à une mise en œuvre complète.
299
Lors de la mise à jour ou du déploiement de nouveaux logiciels, il y a
presque toujours un pilote. Les grandes entreprises, comme les sociétés
multinationales, utilisent toujours un pilote chaque fois qu'un processus doit
être modifié. Dans les environnements de production - par exemple où des
machines ou des équipements sont fabriqués - les pilotes sont également
utilisés tout naturellement. On les appelle souvent « prototype ».
300
L'équipe d'amélioration est étroitement impliquée dans l'exécution et le
suivi du projet pilote. L'expérience d'apprentissage est importante pour la
préparation du déploiement complet de la solution.
301
La deuxième partie de l'évaluation a trait à l'exécution du pilote proprement
dit. Évaluez le pilote sur la base de questions comme :
303
304
PARTIE 5 : CONTROLE
Les trois étapes suivantes du plan en 12 étapes jouent un rôle central dans
cette phase de contrôle :
• Un plan de contrôle
• Un plan de mise en œuvre
• Une amélioration démontrée
• Documentation du projet
305
306
CHAPITRE 10 : GARANTIE ET ANALYSE DU
SYSTEME DE MESURE
10.1 Introduction
Dans le cadre de la mise en œuvre de la solution au problème de processus,
une attention particulière est nécessaire pour faire en sorte que le
changement qui est exécuté soit durable. Ce chapitre se concentre sur la
sécurisation de la solution. Ci-dessous, nous allons discuter des outils qui
peuvent être utilisés à cette fin.
Figure 10.0
307
Y. Cette analyse est aussi réalisée dans cette phase.
Enfin, le plan de contrôle indique quand des audits ou des contrôles sont
réalisés en ce qui concerne le processus et les changements du processus,
afin de s'assurer que les changements soient durables.
Figure 10.1
308
Le tableau 10.0 donne une description des différents titres de colonne :
Tableau 10.0
Département, Personne ou groupe responsable de la
individu maintenance et de l'exécution du plan.
Qu’est-ce qui doit Brève description de l'élément de processus qui
être garanti ? doit être géré.
Y ou X projet ? Indiquez si cet élément est un X projet ou le Y
projet.
Spécifications La cible et les spécifications de cet élément pour
répondre au CTQ.
Mécanisme de Description des procédures, des instruments qui
garantie font en sorte que cet élément soit géré dans les
permanent spécifications requises (comme anti-erreur,
conception solide de processus, cartes de contrôle ;
voir les paragraphes suivants).
Plan de mesure Indique comment/si les mesures sont collectées
pour cet élément de processus. Habituellement,
ces données sont représentées dans un control
chart.
Plan de réaction Décrit quelles actions correctives la personne
responsable devra exécuter en cas de déviations.
Le type d'action, le calendrier et le propriétaire
sont indiqués. C’est aussi parfois indiqué dans un
control chart.
Le plan de contrôle est remis au sponsor du projet. Le sponsor est celui qui
autorise le plan. A long terme, le sponsor est intéressé à ce que le plan de
contrôle garantisse que le processus continue d'afficher des performances
au nouveau niveau. Le sponsor en est aussi le responsable final, suite à son
approbation formelle du plan de contrôle.
309
soit prise rapidement en cas de déviations. Nous discutons des éléments
suivants : anti-erreur, conception de processus solide et management visuel,
procédures (ou instructions de travail) et cartes de contrôle.
Figure 10.2
310
Quelques exemples:
311
La figure 10.3 illustre comment les coûts peuvent augmenter lorsque les
défauts évoluent dans le processus jusqu’au client.
Figure 10.3
Le but ultime est de faire en sorte que rien ne puisse mal se passer (Poka-
Yoke). L’attention doit passer de rechercher les défauts et empêcher qu'ils
n’atteignent le client à rechercher l'erreur et faire en sorte qu'elle ne se
reproduise plus.
312
L'approche suivante est utilisée pour créer un Poka Yoke :
1. Identifier et décrire le défaut.
2. Déterminer l'endroit où il se produit et où on le découvre.
3. Analyser le processus où le défaut ou l’erreur se produit.
4. Déterminer la cause première du défaut.
5. Mettre en œuvre et tester le Poka Yoke.
La condition pour un Poka Yoke est de faire en sorte que le problème
n'apparaisse plus, que la solution soit durable, coûte moins de 500 euros, et
soit facile à mettre en œuvre et à maintenir.
313
exigences, même dans des circonstances non idéales. Cela signifie qu'il est
moins sensible aux éléments suivants :
Si nous avons par exemple appliqué une analyse de régression dans la phase
d'analyse et que nous sommes arrivés à un lien de 3e ordre entre un X et le
Y, comme illustré dans la figure 10.6, il est sensé de choisir les limites du
champ de travail du X de telle manière que la variation du X entraîne une
variation minimale du Y. X peut par exemple être la température du four et
Y la solidité du produit préparé.
Figure 10.6
314
Une manière simple et logique de veiller à ce que le Y fournisse moins de
variations ou d'erreurs dans notre processus consiste à employer le
management visuel. En des termes simples, cela signifie que nous rendons
visible ce qui doit se passer et que nous expliquons les éventuelles
conséquences des erreurs à l'aide d'images, de photos ou de véritables
(dommages à des) éléments. Pensez par exemple à un manuel Ikea : il ne
comporte pas de texte, et il est pourtant clair. Même les personnes qui ne
savent pas lire peuvent voir comment monter une armoire. Il ne dépend
pratiquement pas de la langue et les avertissements concernant les
éléments auxquels il faut faire plus attention ou ce qui pourrait mal se
passer sont indiqués par des points d'exclamation ou des images. Un
Figure 10.7 Niveau d'huile d'un carter de transmission avec voyant vert et rouge.
315
De nombreuses organisations disposent d'un système de qualité dans lequel
la méthode est définie dans un manuel qualité, des procédures et des
instructions. Beaucoup de ces systèmes sont certifiés ISO. Les procédures et
les instructions doivent être rédigées de manière conforme aux formats
existants et il y a souvent une instruction qui décrit comment une
instruction doit être réalisée. L'efficacité des procédures / instructions
dépend effectivement de la façon dont elles correspondent à la pratique
quotidienne et dans quelle mesure elles sont appliquées par les employés.
Figure 10.8
Un control chart peut être fait pour chaque X ou Y que vous souhaitez
contrôler. La moyenne (représentée par la ligne centrale) est basée sur au
moins 25 points collectés sur une période suffisamment longue pour voir
toutes les variations de processus.
Figure 10.9
Il existe des règles qui signalent les tendances et les écarts susmentionnés.
On les appelle les « Western Electric rules ». Ces règles sont largement
appliquées et sont basées sur la division de la zone dans la figure 10.10.
318
Figure 10.10
Des actions correctrices sont nécessaires dans les cas suivants de variation
de cause spéciale :
• Un point ne se trouve pas dans la zone A.
• Deux des trois points consécutifs tombent dans la zone A ou en dehors.
• Quatre des cinq points consécutifs tombent dans la zone B ou en
dehors.
• Neuf points consécutifs sont du même côté de la ligne médiane.
Toutes ces situations peuvent être qualifiées de spéciales, en ce sens qu'on
ne les trouverait pas souvent avec des points aléatoires d'un ensemble de
données à répartition normale. C'est pourquoi la transgression de ces
« rules » est souvent appelée « Special Cause Variation », tandis que si le
processus ne transgresse pas de règles, il est question de « Common Cause
Variation ». Cf. aussi $A1.5.2.
Dans Minitab, vous pouvez adapter et activer ou désactiver ces règles (et
d'autres règles).
319
cartes de contrôle représentent la voix du processus (VOP). Pour clarifier,
voici une liste des différences :
Tableau 10.1
320
Minitab vous aide à sélectionner le bon control chart pour une situation
donnée. Les comptages sont considérés comme discrets à ce niveau. On
entend par « sous-groupes » que les données des échantillons constituent
un ensemble de nombres correspondants qui disent par exemple quelque
chose sur un lot ou un échantillon. Dans la production continue, il peut s'agir
de 5 mesures d'échantillon qui se présentent lors d'un tour d'une ligne de
production.
On entend par défauts par unité que l'on mesure non seulement le nombre
d'erreurs, mais aussi que le groupe dans lequel se trouvent ces erreurs n'a
pas toujours la même taille.
Figure 10.12
Une équipe Lean Six Sigma du département IT travaille à l'amélioration du
service aux clients qui appellent le helpdesk. Après le pilote d'améliorations
au cours de la phase Améliorer, l'équipe veut mettre en place une carte de
contrôle pour mesurer le nombre de fois par jour où un client est mis en
attente par l'employé pour demander de l’aide à un collègue pour répondre
321
à la question du client. On enregistre le nombre d’appels pendant un certain
nombre de jours, ainsi que le nombre de fois où une personne a été mise en
attente. Ces informations sont reprises dans la feuille de calcul « Helpline
Calls.MTW ».
Figure 10.13
322
Figure 10.14
Exemple 2
Des commandes sont reçues par le service des commandes. Les mesures
concernent le temps que les clients doivent attendre avant d’être pris en
charge. Les longs délais d'attente posent problème, car les clients peuvent
abandonner et raccrocher, et la commande est donc perdue. Une
amélioration est assurée. Dans les données, on peut le voir dans la colonne
avec la situation « old » et « new ». La feuille de calcul s'intitule : « Order
taking with improvement.MTW ».
Minitab: Assistant -> Before/After Control Charts -> Before/After I-MR Chart.
Figure 10.16
Nous les complétons suivant la figure 10.17.
324
Figure 10.17
Yes No
P < 0,001
old new
20
Individual Value
10 UCL=10,14
_
X=6
LCL=1,86
0
10
Moving Range
5 UCL=5,08
__
MR=1,56
0 LCL=0
1 4 7 10 13 16 19 22 25 28 31
325
que l'on appelle le Moving-Range. Ce dernier nous informe sur la diffusion
ou la variation à court terme. Les points rouges sont les points qui
nécessiteraient des mesures correctives.
10.5 Exercices
Anti-erreur
Quel est le terme japonais pour anti-erreur ?
Et que signifie-t-il ?
327
328
CHAPITRE 11 : MISE EN OEUVRE ET
CONFIRMATION DE L’AMELIORATION
11.1 Introduction
A ce stade du projet, la solution a déjà été choisie et peut être déjà testée à
petite échelle dans la pratique. Dans ce chapitre, nous discutons de la mise
en œuvre complète de la solution. Le sujet « gestion de projet » du plan en
12 étapes intervient ici. Il existe une solution définie qui doit être mise en
œuvre de manière contrôlée dans l'organisation.
• Définition du projet
• Organisation du projet
• Planification du projet
• Ressources nécessaires et budget
• Plan de gestion des risques
• Plan de communication
• Besoins de formation
329
Le « projet » - par exemple en termes de Prince2 - est le projet de mise en
œuvre de la trajectoire LSS. La définition du projet contient la solution, le
plan de contrôle et les mécanismes de contrôle.
330
5. Collectez de nouvelles données sur ce(s) X avec les performances
de votre Y (flat file) et voyez si vous pouvez à présent expliquer la
variation dans Y.
6. Si vous pouvez expliquer une variation suffisante de Y avec vos X
vitaux originaux, revenez à l'exécution de votre pilote et à la mise
en œuvre de vos améliorations. Vérifiez dans le journal du pilote
dans quelle mesure les paramètres optimaux et les méthodes de
travail que vous aviez développées pour les paramètres optimaux
sont effectivement suivis. Exécutez à nouveau le pilote si nécessaire
et mesurez encore une fois votre capacité de processus.
Proposez des projets supplémentaires s'il s'avère qu'il y a encore une marge
d'amélioration. Incluez-les dans les « leçons tirées » et dans la
documentation du projet.
Dans certains cas, il faut beaucoup de temps avant que la mise en œuvre
complète soit terminée ou jusqu'à ce que suffisamment de nouvelles
données de processus aient été recueillies. Par exemple, dans le cas d'une
mise en œuvre internationale d'un processus qui a été mis à l'essai dans un
marché local. Dans ce cas, la mise en œuvre doit être remise à l'organisation
du projet et le leader Lean Six Sigma clôture le projet sur la base des
améliorations significatives qui ont été réalisées dans le pilote. Si, pour une
raison quelconque, le déploiement d'une partie de la solution est retardé
(par exemple en raison d'ajustements dans les conventions collectives
d'entreprise ou en attendant l'approbation de membres / syndicats, la
suppression progressive des contrats, l'adaptation/nouvelle version d'un
logiciel, etc.), un plan est établi seulement pour la mise en œuvre de ces
éléments de solution, et le projet est remis au sponsor, conformément au
chapitre 12.
331
332
CHAPITRE 12 : CONCLUSION DU PROJET
ET TRANSFERT
12.1 Introduction
Dans ce dernier chapitre, nous discutons de la conclusion du projet, du
transfert au sponsor et de la remise de la documentation du projet.
• La sécurisation de la solution.
• Le business case prévu et le business case réel (si la nouvelle capacité
de processus a déjà été déterminée).
• Les enseignements tirés : qu'avons-nous appris et que ferions-nous
encore / différemment désormais ?
• Les possibilités de réplication (en d'autres termes, où peut-on encore
l’appliquer).
• Le résumé du projet.
• La définition du problème.
• Les données de référence de la performance initiale du processus.
• Une liste des causes principales (X vitaux).
• Les solutions retenues pour ces X.
• Les mécanismes de contrôle.
• Les métriques de performance (DPMO, capacités de processus).
• Les leçons tirées / meilleures pratiques.
• Les résultats financiers.
• La réplication de l'amélioration dans d'autres domaines.
335
336
Annexe 1 : STATISTIQUES DE BASE
A1.1 Introduction
Les statistiques jouent un rôle important dans la méthodologie Lean Six
Sigma. Dans cette annexe, nous allons discuter des statistiques de base
nécessaires dans la phase de mesure pour analyser le processus en cours et
pour les utiliser ensuite dans la phase d'analyse, pour s'assurer que le projet
Lean Six Sigma soit exécuté correctement et que l’on comprenne les
données.
A1.2 Statistiques
Dans le cadre de Lean Six Sigma, les statistiques sont utilisées pour prendre
des décisions objectives qui peuvent être étayées et communiquées
efficacement.
337
Mais que sont les statistiques à proprement parler ? Ci-dessous, quelques
définitions :
Les sujets couverts vont jouer un rôle dans les statistiques que nous
appliquons dans Lean Six Sigma.
Tendance centrale :
• Moyenne
• Médiane
• Mode
338
Répartition (ou variation)
• Portée (« range »)
• Distance interquartile (« Inter Quartile Range »)
• Ecart moyen (« Mean deviation »)
• Variance
• Ecart-type
Dans les paragraphes suivants, les notions sont expliquées plus en détail.
A1.3.1 La moyenne
La moyenne est la somme de toutes les valeurs divisée par le nombre de
valeurs (le nombre d'observations). La formule est la suivante :
fg =
∑i
G
339
Figure A1.0
A1.3.2 La médiane
La médiane est la valeur centrale d'une série de données ordonnées par
taille. Lorsque le nombre d'observations est pair (il n'y a pas une valeur
centrale unique), la médiane est la moyenne des deux valeurs centrales.
Par exemple, dans la série suivante, où les valeurs de mesure sont classées
dans l'ordre du plus petit au plus grand :
X1, X2, X3, X4, X5, X6, X7, X8, X9, X10, X11
X1, X2, X3, X4, X5, X6, X7, X8, X9, X10, X11, X12
340
A1.3.3 Le mode
Le mode est principalement utilisé avec des données discrètes, comme le
dénombrement. Le mode est la valeur la plus fréquente. S’il y a deux
groupes ou valeurs qui se produisent le plus souvent, il est question de
répartition bimodale.
Figure A1.1
A1.3.4 Etendue
Quand on parle de notions relatives à la variation, la portée (range) est la
notion la plus simple. La portée est la valeur la plus élevée diminuée de la
plus petite valeur d'un ensemble de données. Cela la rend facile à
déterminer, mais elle est très sensible aux valeurs aberrantes.
40, 54, 72, 48, 35, 56, 50, 24, 40, 30, 15, 40, 15, 40
341
A1.3.5 Quartiles
Les quartiles sont liés à la médiane. Les quartiles sont les (3) valeurs qui
divisent une série ordonnée d'observations en quatre parties égales. Chaque
quartile contient 25% des observations. Voir l'exemple ci-dessous.
15, 15, 24, 30, 35, 40, 40, 40, 40, 48, 50, 54, 56, 72
L'IQR est beaucoup moins sensible aux valeurs extrêmes que la portée. 50%
des valeurs de mesure se trouvent par définition dans l'IQR. L'IQR signifie en
anglais Inter Quartile Range.
342
A1.3.8 Variance
La variance est notre prochaine mesure de la variation. Elle est calculée de
façon analogue à l'écart moyen. La différence est que les écarts par rapport
à la moyenne sont d'abord élevés au carré, avant le calcul de la moyenne.
∑l g 'k
jmn%ij : µ
=
G
Figure A1.2
A1.3.9 Ecart-type
L'écart-type est la mesure de la variation qui est la plus couramment
utilisée. Le symbole de l'écart-type est σ. C'est la racine carrée de la variance
et il se calcule comme suit :
∑l
jmn%ij : µ'
k
σ=o
G
343
Tant l'écart-type que la moyenne sont nécessaires pour décrire une
distribution normale.
A1.4 Echantillon par rapport à la population
Dans le paragraphe précédent, nous avons défini des notions statistiques
importantes. Moyenne et écart-type peuvent se rapporter à l'ensemble de
la population (par exemple « tous les Belges ») ou aux données qui ont été
utilisées pour un échantillon (par exemple, 1000 personnes qui ont rempli
un questionnaire). Les symboles et les formules qui sont utilisés pour
l'ensemble de la population et pour un échantillon sont différents. Voici les
symboles et formules pour un échantillon et pour la population :
Population Echantillon
Moyenne µ fg
∑l
jmn%ij :µ'
k ∑l g k
jmn%ij : i'
Variance = =
G G:O
∑l
jmn%ij :µ'
k ∑l g k
jmn%ij : i'
σ=o s=o
Ecart-type
G G:O
344
A1.5 La distribution des données
A1.5.1 Distributions
Dans les paragraphes précédents, nous avons utilisé la moyenne et l'écart-
type pour résumer les données qui sont générées par un processus. Une
autre manière de résumer les données consiste à présenter la distribution
en tant que graphique. La distribution permet de voir combien de fois
(fréquence) certaines données apparaissent dans un ensemble de données.
Le « pic » de la distribution indique la tendance centrale. L’étendue de la
distribution nous renseigne sur la variation des données.
Figure A1.3
345
Dans une distribution de données symétrique idéale, une distribution
normale, la moyenne, la médiane et le mode auront la même valeur. S'ils
sont séparés, cela signifie que la distribution est asymétrique. Si des valeurs
supérieures sont surreprésentées par rapport au mode, elle est
« asymétrique positive ». Si les valeurs inférieures sont surreprésentées par
rapport au mode, c'est une « asymétrique négative ».
Figure A1.4
A1.5.2 Histogramme
L'histogramme est un outil graphique fort employé pour illustrer les
distributions. Il est créé en prenant la différence entre les résultats les plus
élevés et les plus bas et en répartissant les observations parmi un certain
nombre d'intervalles de largeur égale, appelés « classes ». Le nombre
d'observations dans chaque intervalle est ajouté et le nombre (fréquence)
Figure
est A1.5 comme une barre par intervalle.
représenté
346
Les caractéristiques d'un histogramme :
347
Figure A1.6
Figure A1.7
348
A1.5.3 Distribution normale
La distribution normale de Gauss (du nom du mathématicien allemand Carl
Friedrich Gauss) est une distribution continue avec deux paramètres, la
valeur moyenne μ et l'écart-type σ. En raison de sa forme, elle est
également appelée « courbe en cloche » ou courbe de Gauss.
Figure A1.8
1, 0
V ar iable
mean:-2 stdev :0,7
0, 8
mean: 0 stdev :2
mean: 0 stdev :0,4
mean: 0 stdev :1
0, 6
0, 4
0, 2
0, 0
-5 -4 -3 -2 -1 0 1 2 3 4 5
L'axe des X contient toutes les valeurs possibles que peuvent montrer les
observations. L'axe des Y contient la probabilité qu'une certaine valeur se
produise. La ligne ne touche jamais l'axe des X. La probabilité qu'une
certaine valeur se produise devient de plus en plus petite à mesure que vous
vous éloignez de la moyenne. La surface sous le graphique est comptée pour
1 (ou 100%). On a en effet toujours une valeur lors d'une déduction.
349
De nombreux phénomènes peuvent être décrits en utilisant la distribution
normale. Ce sont des phénomènes où la distribution est concentrée
symétriquement autour d'une valeur centrale, tandis que les écarts à cette
valeur centrale deviennent moins probables à mesure que l'écart est plus
grand. Ce type de distribution se produit quand, à l'apparition de
circonstances particulières, il y a une probabilité égale qu'elle conduise à
une réduction ou à une augmentation des valeurs observées. Dans le cas de
délais de livraison, où les circonstances particulières sont plus susceptibles
de conduire à une augmentation qu'à une diminution du délai, la
distribution ne sera pas symétrique, mais décalée vers la droite.
La distribution normale n'est pas toujours une bonne approche. Dans le cas
d'une croissance exponentielle, ou dans le cas de distributions asymétriques
comme pour les revenus, les prix et les délais de livraison, qui sont orientées
à droite, d'autres distributions fournissent une meilleure adéquation. Les
distributions comme la distribution lognormale ou la distribution
exponentielle peuvent fournir une meilleure approche. Puisque les
statistiques des distributions normales sont plus puissantes et plus simples,
nous tenterons dans de nombreux cas d'aboutir autant que possible à une
(approche de la) distribution normale. Eventuellement, nous pouvons
transformer des données en une distribution (plus) normale, mais il est dans
de tels cas plus facile d'utiliser les statistiques qui sont spécialement créées
pour les données qui ne sont pas réparties normalement, les statistiques
« sans répartition ». Minitab dispose à cet effet d'un certain nombre
d'outils, qui sont disponibles sous l'onglet « non parametrics ».
350
Figure A1.9
Les distributions normales peuvent varier par rapport à deux paramètres :
1. Différences de moyenne µ.
Figure A1.10
2. Différences d’écart-type σ
351
Figure A1.11
Figure A1.12
352
A1.6 Exercices
Unités statistiques
Rapidité du Satisfaction
Mois check-out Amabilité client globale
Histogramme
Prenez les valeurs de la colonne de la satisfaction totale de l'exercice
précédent. Dressez un histogramme pour ces données (éventuellement à
l'aide de Minitab).
353
354
Annexe 2 : INTRODUCTION A MINITAB
A2.1 Introduction
Minitab est un logiciel statistique qui est souvent appliqué dans des projets
Lean Six Sigma. Dans les cours de formation Lean Six Sigma de The Lean Six
Sigma Company, cet outil est utilisé comme base. Minitab prend en charge
les analyses statistiques et, lorsqu'il est utilisé correctement, augmente la
qualité du projet. Dans cette annexe, nous présentons Minitab. Vous
trouverez plus d'informations sur Minitab et les licences sur :
www.minitab.com
355
La base des analyses des données est la feuille de calcul. Elle ressemble à un
tableur, mais n'en est pas un. Les données doivent être stockées dans des
colonnes comme un « fichier plat » avec des en-têtes de colonne. Chaque
colonne est une variable. Aucune formule n’est utilisée dans la feuille de
calcul, qui ne contient que des données. Chaque feuille peut être stockée
séparément comme fichier .mtw. Minitab utilise en outre une « session
window ». Le résultat des calculs est illustré en tant que texte. C’est
également le journal des actions qui ont été menées. Les utilisateurs
avancés peuvent utiliser cette interface pour entrer des commandes via
l'invite de commande et utiliser des macros.
Figure A2.1
356
A2.3 Menus Minitab
Le menu Fichier
Figure A2.2
Les éléments qui sont les plus utilisés dans le menu fichier sont : New
(project ou worksheet), Open Worksheet, Open Project et Save Project.
Le menu Editer
La commande la plus utilisée dans le menu Editer est « Edit Last Dialog » afin
de refaire ce qui vient d'être fait, mais autrement, sans devoir parcourir les
menus (c'est aussi accessible avec le raccourci clavier Ctrl-E).
357
Figure A2.3
Le menu Données
Figure A2.4
L'élément qui est le plus utilisé est « Stack Columns » (ou empiler les
colonnes) et « Unstack Columns » (« désempiler »). Cela vous permet de
358
combiner différentes colonnes dans une colonne, ou de diviser une colonne
en plusieurs colonnes.
Le menu Calc
Figure A2.5
359
Figure A2.6
Le menu Stat
Le menu de stat est le menu qui est le plus utilisé. Il contient la plupart des
fonctions statistiques et des analyses :
• Statistiques de base
• Régression
• ANOVA
• DoE
• Détermination de tailles d’échantillon, ...
360
Figure A2.7
Le menu Graph
• Séries chronologiques
• Boîtes à moustaches et graphique de points
• Histogrammes
• Diagrammes à barres et à secteurs
• Graphique de contours
Le menu Editor
Les éléments les plus utilisés du menu d'édition sont « Find » et « Replace ».
Figure A2.9
362
Le menu Window
Vous pouvez retrouver dans le menu Window l'écran dont vous avez besoin
parmi les (nombreux) écrans qui sont parfois ouverts dans Minitab. Le
moyen le plus rapide est « Tile » ou « Cascade ».
Figure A2.10
Le menu Help
363
Figure A2.11
Il fournit un soutien dans l'utilisation de Minitab. Le Stat Guide est le manuel
qui peut vous aider à choisir le bon outil au bon moment. L'assistant, qui se
trouve à côté du menu d'aide de la dernière version de Minitab, offre une
fonctionnalité encore plus large et il est facile à utiliser. Avec les Tutorials,
vous êtes accompagné pour vous familiariser avec Minitab.
L’Assistant
Figure A2.12
364
Figure A2.13
L’utilisation de la calculatrice
La calculatrice peut être utilisée dans ce cas pour additionner les erreurs par
employé dans une nouvelle colonne. La somme des erreurs est inscrite dans
la colonne C9. Cela se fait de la manière suivante :
365
Figure A2.14
Le résultat est affiché dans la colonne C9. Voir la feuille de calcul ci-dessous.
Figure A2.15
366
Résumé graphique et histogramme
Pour obtenir un aperçu rapide des données, on utilise le résumé graphique
(graphical summary) via Stat → Basic Starsrcs → Graphical Summary. Dans
notre cas, nous le faisons pour le nombre total de demandes par employé
par jour.
Figure A2.16
Mean
Median
367
Nous pouvons en faire de même pour le nombre d'erreurs (utilisez Ctrl-E) :
Figure A2.18
Summary Report for Total Mistakes
Anderson-Darling Normality Test
A-Squared 5,16
P-Value <0,005
Mean 14,677
StDev 4,964
Variance 24,643
Skewness -0,578789
Kurtosis -0,994459
N 124
Minimum 5,000
1st Quartile 9,250
Median 16,000
3rd Quartile 18,000
Maximum 23,000
95% Confidence Interval for Mean
6 9 12 15 18 21
13,795 15,560
95% Confidence Interval for Median
15,000 17,000
95% Confidence Interval for StDev
4,414 5,673
Mean
Median
368
Stat -> Basic Statistics -> Graphical Summary. Complétez le champ « By
Variable » avec la colonne que vous voulez utiliser comme facteur de
stratification. Dans ce cas, Person (personne). Comme vous pouvez le voir, il
n'est pas possible de sélectionner les colonnes de texte lors du remplissage
de Y (par exemple, le nombre d'erreurs ou le nombre de formulaires). En ce
qui concerne les X, il est possible d'utiliser des données discrètes (comme du
texte), par exemple parce qu'une subdivision est faite en un nombre limité
de groupes.
Figure A2.20
369
Figure A2.21
Le « Lay-out tool » permet d'illustrer les quatre résumés graphiques obtenus
par Minitab dans un ensemble, par exemple s'ils doivent être traités dans un
rapport. Pour ce faire, vous devez procéder comme suit :
Editor > Layout Tool >, y sélectionner les 4 graphiques, puis avec la flèche
vers la droite « reprendre », Minitab en fait ce qui suit :
Figure A2.22
Statistiques descriptives
370
Figure A2.23
Par ailleurs, il est aussi possible d'y exécuter les statistiques descriptives par
variable. Dans ce cas, le champ « by variable » doit être complété, par
exemple en y inscrivant « person ». Vous obtenez alors les statistiques
descriptives par personne, donc par exemple le nombre moyen d'erreurs
par personne au lieu de toutes les personnes ensemble.
371
Analyse de capacité
Une étape importante dans le projet Lean Six Sigma est de déterminer la
performance du processus ou du Y projet. L'analyse de la capacité est un
bon outil pour y parvenir. La Lower Specification Limit (LSL) et l'Upper
Specification Limit (USL) peuvent être reprises dans cette analyse. Minitab
traite le processus comme une distribution normale et indique dans
combien de cas (en parties par million), le processus produit en dehors des
spécifications.
Pour réaliser une bonne analyse de la capacité, nous devons d'abord créer
une colonne avec le pourcentage d'erreurs (« percent mistakes » dans la
colonne 10). Nous avons pour cela besoin de la calculatrice.
Figure A2.24
Figure A2.25
Figure A2.26
LB USL
Process Data Overall
LB 0 Within
Target *
USL 8 Overall Capability
Sample Mean 4,55809 Z.Bench 1,99
Sample N 124 Z.LB *
StDev(Overall) 1,72955 Z.USL 1,99
StDev(Within) 1,0168 Ppk 0,66
Cpm *
Potential (Within) Capability
Z.Bench 3,39
Z.LB *
Z.USL 3,39
Cpk 1,13
Performance
Observed Expected Overall Expected Within
PPM < LB 0,00 * *
PPM > USL 16129,03 23292,34 355,83
PPM Total 16129,03 23292,34 355,83
373
La performance globale indique dans quelle mesure le processus produit
conformément aux spécifications. La « Within Performance » est la
performance « à court terme » ou dans ce cas la performance « dans le
sous-groupe », qui est obtenue en calculant la variation dans le sous-groupe
(personne).
La prévision (Performance : « Expected Overall ») est que dans 2,3% des cas,
le processus global (c'est-à-dire à long terme) tombera en dehors de la
spécification, car le PPM Expected Overall est de 23292. La valeur + ;
(potentiel, court terme, ou dedans) de 1,13 indique que le processus à court
terme peut assurer des performances à un niveau Z acceptable de 3,39.
L'Overall capability de Z=1,99 n'est pas assez bonne (à un benchmark de Z=3
ou Cp=1).
Boîtes à moustaches
Les boîtes à moustaches sont basées sur la médiane et les quartiles. Une
boîte à moustaches fournit rapidement un aperçu lorsque l’on compare la
performance des groupes ou des facteurs de stratification. Dans le cas des
demandes de prêts, nous comparons les performances de différents
employés.
Figure A2.28
20
Maximum
Total Mistakes
Q3
15 IQ Q2 =Médiane
R Q1
10
Minimum
5
375
Les queues (« whiskers ») des boîtes à moustaches vont du minimum
jusqu’au premier quartile (Q1) et du 3e quartile (Q3) jusqu’au maximum. La
boîte elle-même (le carré) est la zone située entre le premier et le troisième
quartile (Q1 et Q3). Les valeurs aberrantes au-dessus du maximum ou en
dessous du minimum sont indiquées en tant qu’astérisque séparé. Les
valeurs aberrantes sont définies (par Minitab) comme des points qui sont à
plus de 1,5 fois la distance interquartile (IQR) en dessous de Q1 ou au-
dessus de Q3. Les éventuelles valeurs aberrantes sont indiquées par un
astérisque si elles sont présentes.
Graphique de points (Dotplot)
Les Dotplots donnent rapidement un aperçu de tous les points de données,
éventuellement répartis en groupes. Dans le graphique présenté ci-dessous,
cela a été fait pour les quatre employés dans notre cas. La sélection du Y et
des groupes est conforme aux boîtes à moustaches et fonctionne pour de
nombreux graphiques. Dans ces cas, les dotplots sont équivalents à des
histogrammes avec une taille de la classe de 1.
Allez à : Graph -> Dotplots -> One Y with groups
Figure A2.30
AB-Am 1
Person
AB-Am 2
AB-Am 3
AB-Am 4
6 9 12 15 18 21
Total Mistakes
376
Graphique de séries chronologiques
Le graphique de série chronologique est utilisé pour analyser les tendances
dans le temps.
ATTENTION: Triez d'abord bien toutes les colonnes sur la base de la colonne
« Date » afin que les plus anciennes données figurent en haut (avec Data >
Sort)
Figure A2.31
377
Figure A2.33
450
400
Total Requests
350
300
250
200
1 12 24 36 48 60 72 84 96 108 120
Index
378
Figure A2.35
Figure A2.36
450
400
Total Requests
350
300
250
200
1-3 3-3 6-3 9-3 12-3 15-3 18-3 21-3 24-3 27-3 30-3
date EUR
379
Pareto et empilement (stacking)
Figure A2.37
Cela donne le résultat suivant avec deux colonnes empilées, auxquelles vous
devez donner un nom logique : (par exemple « Defects » et « Count »).
380
Figure A2.38
Pour faire le Pareto, allez dans : Stat -> Quality Tools -> Pareto Chart
Figure A2.39
381
Pareto Chart of Defects
2000
100
1500 80
Percent
Count
60
1000
40
500
20
0 0
Defects Sent to wrong address Late Wrong Form Used Not Complete
Count 834 550 337 99
Percent 45,8 30,2 18,5 5,4
Cum % 45,8 76,0 94,6 100,0
Figure A2.40
L'envoi à la mauvaise adresse est le premier X sur lequel concentrer nos
efforts d'amélioration.
382
le « travail à domicile Minitab » (notamment Boxplot, Graphical Summary,
Pareto). Ci-dessous le Graphical Summary de « Total Mistakes » et « Total
Mistakes » par « Person » via « l'Assistant ».
Figure A2.41
383
Figure A2.44 Graphical Summary of Total Mist
Summary Report
Distribution of Data
Examine the center, shape, and variability.
Descriptive Statistics
N 124
Mean 14,677
StDev 4,9642
Minimum 5
5th percentile 6
25th percentile 9,25
Median 16
75th percentile 18
95th percentile 21
Maximum 23
4 8 12 16 20 24
16
0 20 40 60 80 100 120
16
8
AB-Am 2 AB-Am 2
24
16
Total Mist
8
AB-Am 3 AB-Am 3
24
16
8
AB-Am 4 AB-Am 4
24
16
8
6 9 12 15 18 21 0 10 20 30
Total Mist
Normality Test
Group N Mean 95% CI StDev 95% CI Min Median Max P Decision
AB-Am 1 31 7,1935 (6,7352; 7,6519) 1,2495 (0,9985; 1,6702) 5 7 11 <0,005 Fail
AB-Am 2 31 15,516 (14,449; 16,583) 2,9083 (2,3240; 3,8874) 8 16 21 0,301 Pass
AB-Am 3 31 17,774 (16,950; 18,598) 2,2466 (1,7953; 3,0030) 13 18 21 0,200 Pass
AB-Am 4 31 18,226 (17,452; 18,999) 2,1089 (1,6852; 2,8189) 14 18 23 0,395 Pass
384
Figure A2.43
Boxplot of %mistakes by Person
Summary Report
8
%mistakes
400
total requ
350
With Smoother
Shows general trend of data
300
250
200
1 17 34 51 68 85 102 119
Index
385
Enfin, après le stacking, le Pareto des défauts.
Figure A2.46
2000
1500
number
1000
500
0
type Sent to wr Late Wrong Form Not Comple
Count 834 550 337 99
Percent 45,8 30,2 18,5 5,4
Cum % 45,8 76,0 94,6 100,0
386
Annexe 3 : TESTER LES HYPOTHESES
A3.1 Introduction
Dans cette annexe, nous discutons des tests statistiques et des intervalles de
confiance associés, qui sont déterminés pour être en mesure de faire un
énoncé à propos d'une population sur la base d'un échantillon. Dans les
statistiques qui sont traitées, nous raisonnons toutefois autrement. Tout
d'abord, un énoncé est établi et il est testé par rapport aux données d'un
échantillon pour voir s'il est rejeté ou conforté. Cet énoncé est appelé
hypothèse. La question centrale à cet égard est de savoir comment nous
pouvons être sûr qu'une hypothèse est acceptée ou rejetée. Cela est lié à la
fiabilité du test. Dans les paragraphes suivants, nous discutons de la création
et du test des hypothèses et de la fiabilité de ces tests.
387
Figure A3.0
Mean
Median
Nous partons du principe que le cas des demandes de prêt porte sur un
échantillon. Dans l'encadré en bas à droite, un intervalle de confiance de
95% est mentionné pour la moyenne, la médiane et l'écart-type. L'intervalle
de confiance indique le degré de certitude avec lequel vous pouvez faire une
déclaration sur la valeur réelle et attendue de la moyenne, de la médiane et
de l’écart-type de la population, sur la base de l'échantillon donné. Dans ce
cas, il est possible d'affirmer avec une certitude de 95% que la valeur réelle
de la moyenne de la population pour le nombre total de demandes par jour
se situe entre 321,17 et 343,19.
388
Nous avons donc 95% de chances que l'énoncé que nous avons fait
corresponde à la réalité et 5% que ça ne soit pas le cas. Ce 5% est également
désigné sous le nom Alpha ou risque α.
Le degré de certitude que l’on veut sur l'énoncé dépend des conséquences
de celui-ci. Quelques exemples :
En résumé :
Les intervalles de confiance sont utilisés pour calculer les moyennes et les
écarts-types à partir d'échantillons et les traduire en une fourchette dans
laquelle la moyenne µ et l'écart-type σ pour la population totale doivent
présenter un certain degré de certitude.
389
Intervalle de confiance = valeur de l’élément dans l'échantillon +/- constante
x erreur standard.
s = écart-type de l’échantillon
n = taille d’échantillon
n-1 = nombre de degrés de liberté (par définition)
s̅ = moyenne de l’échantillon
390
α = risque alpha (chances de tirer une conclusion erronée, habituellement
5%)
A
= erreur standard (par définition)
√G
Figure A3.1
Taille d’échantillon
391
Figure A3.2
392
ces X, ils doivent produire une amélioration significative de Y. Quelques
exemples :
Un hôpital dispose de deux établissements qui utilisent tous les deux des
scans pour prendre des images destinées à poser des diagnostics. L'hôpital
veut savoir s'il existe des différences en ce qui concerne la qualité des
services entre ces deux établissements, en particulier par rapport au nombre
de scans perdus, qui doivent être refaits, et en ce qui concerne le temps
d'attente moyen pour ces IRM et ces radios.
Dans les trois cas, les tests d'hypothèses peuvent fournir une réponse.
393
L'hypothèse alternative suppose qu'il existe des différences. L'hypothèse
alternative est vraie quand il y a suffisamment de preuves pour rejeter
l'hypothèse nulle. La notation utilisée pour l'hypothèse alternative est HN .
HN : µO ≠ µ
Figure A3.3
Nous allons discuter de l'exécution des tests d’hypothèses sur la base d'un
plan d'approche :
HK : µO = µ ou HK : σO = σ
HN : µO ≠ µ ou HN : σO ≠ σ
395
Figure A3.4
Type-I : HK Rejeter et conclure qu'il existe une différence, alors qu'il n'y
en a pas.
Type-II : HK Accepter et conclure qu'il n’y a pas de différence, alors qu'il
y en a une.
La valeur habituelle pour α = 0,05 (5%) et pour β = 0,10 à 0,20 (10% - 20%).
Le risque α est appelé l'erreur de 1er type, et le risque β l'erreur de 2e type.
L'erreur de 1er type est également connue comme le risque du fabricant.
Une action est prise alors que tout va bien (par exemple dans le cas d'un
rappel proactif de produits). L'erreur de 2e type est appelée le risque du
consommateur. Aucune action n'est prise alors qu'elle était nécessaire.
396
La probabilité qu'un test démontre une différence quand il y en a réellement
une est appelée la puissance du test (ou power). L'hypothèse nulle est
rejetée à raison. La puissance d'un test est liée au risque β et peut être
calculée comme suit : Puissance = 1 – β.
Figure A3.5
397
sont les limites dans lesquelles l'hypothèse nulle est acceptée. Au-delà se
trouvent les 5% (notre α). Le test statistique que nous réalisons (dans
Minitab ou non) donnera toujours une valeur que nous devons comparer à
cette limite critique de 5% (ou α).
Attention : si α est fixé à 0,10 (ce qui signifie que nous acceptons une
probabilité plus élevée de nous tromper), cette valeur de 0,10 est utilisée
comme limite pour rejeter ou accepter HK .
Dans chaque test d'hypothèse dans Minitab, la valeur P est le résultat le plus
important. Plus la valeur P est faible, plus il est clair qu'il faut rejeter HK .
Dans la plupart des cas, la valeur limite est de 0,05. Si P < 0,05, HK est rejetée
et HN est considérée comme valide. La règle générale est la suivante :
1. Tests bidirectionnels
2. Tests unidirectionnels
398
Il est question de tests bidirectionnels si l'hypothèse s'applique à deux
populations qui sont considérées comme égales dans l'hypothèse nulle. Par
exemple :
HK Les Belges (1) ont la même taille que les Hollandais (2), soit HK : µO = µ
HN Les Belges (1) et les Hollandais (2) n’ont pas la même taille, soit HN : µO ≠
µ
HK est rejetée si les Belges sont significativement plus grands que les
Hollandais ou si les Hollandais sont significativement plus grands que les
Belges.
Dans le cas de tests bidirectionnels avec un intervalle de confiance de 95%,
5% (0,05) se situent en dehors de la valeur critique, dont 2,5% se trouvent
dans la partie inférieure et 2,5% dans la partie supérieure (0,025 de part et
d'autre).
Figure A3.7
2. Tests unidirectionnels
Figure A3.8
399
HK Les Belges (1) ne sont pas plus grands que les Hollandais (2), ou HK :
µO ≤ µ
HN Les Belges (1) sont plus grands que les Hollandais (2), ou HN : µO > µ
HK est vrai quand les Belges sont plus petits que les Hollandais ou s'il n'y a
pas de différence de taille entre les Belges et les Hollandais. Si nous voulons
nous prononcer avec un intervalle de confiance de 95%, cela signifie que la
valeur critique est située sur un seul côté de la courbe. Voir la Figure A3.8.
Dans les deux tests, on vérifie si la valeur P qui est le résultat du test est
inférieure à la valeur critique de 0,05, mais avec le test unidirectionnel,
l'ensemble de la zone critique (où l'hypothèse nulle est rejetée) se trouve
d’un seul côté (c.-à-d. 5% de la surface de la courbe d'un côté), tandis que
dans le cas du test bidirectionnel, il est de 2,5% des deux côtés. Cela signifie
qu’une valeur doit être plus extrême (s'écarter du centre) dans le cas d'un
test bidirectionnel, pour entrer dans la zone critique par rapport à un test
unidirectionnel. Cela signifie également qu'un test unidirectionnel peut
donner une différence significative plus rapidement. Inversement, si un test
bidirectionnel fournit déjà un résultat significatif (P < 0,05), on obtiendra
également une différence significative avec ce même test, mais
unidirectionnel. Par conséquent, si un test bidirectionnel donne un résultat
significatif, aucun test unidirectionnel ne doit être effectué.
400
Nous sommes souvent à la recherche d'une relation significative entre X et
Y. La puissance d'un test augmente quand il y a une relation plus forte entre
X et Y, et quand on collecte plus de données. Une exigence commune est
que la puissance devrait être au moins de 0,80 (donc β < 0.20).
401
Figure A3.6
402
Annexe 4: REPONSES AUX EXERCICES
Exercices du chapitre 0.12
Défauts :
Réponse : 0,33 ou 33,3% (1 défaut divisé par 3 opportunités)
DMAIC
Réponse:
Définir, Mesurer, Analyser, Améliorer (Improve), Contrôler (DMAIC)
1. Déterminer le projet et sa portée ; 2. Définir le défaut ; 3. Déterminer le Y et analyser le
système de mesure ; 4. Déterminer la performance de base ; 5. Préciser l’objectif d'amélioration
compte tenu de la performance de base ; 6. Identifier les causes possibles de variation ;
7. Déterminer les causes premières ; 8. Déterminer la solution optimale ; 9. Tester la solution ;
10. Garantir et analyser le système de mesure ; 11. Mettre en œuvre et démontrer
l'amélioration ; 12. Documenter le projet et transférer la responsabilité.
Qualité :
Réponse : a : Efficacité et Efficience
b : L'efficacité consiste à faire les bonnes choses (nos activités correspondent-elles aux besoins
du client ?). L’efficience consiste à bien faire les choses (consacrons-nous à nos activités un
minimum de ressources ?).
403
Exercices du chapitre 1.4
Sélection de projet :
Réponse :
1. Identifier les éléments de l’organisation qui déterminent la valeur.
2. Identifier les chances et opportunités.
3. Examiner la liste des possibilités.
4. Champ et définition des projets.
5. Prioriser la liste des projets.
Voix …
Réponse:
a. Voix :
Du client
Du processus
De l'entreprise
Management
Employé
b. La Voix du Client. Si le client pense que le produit ou le service n’est pas assez bon, il ne
sera plus acheté et il ne sera plus viable.
VOC :
Réponse:
1. Prix : le bon prix
2. Qualité : la bonne qualité
3. Temps : au bon moment (en général, aussi vite que possible)
Le modèle de Kano
Réponse:
Attrayant : b, h, j Souhaitable : a, g,
Indifférent : d, e, f Obligatoire : c, i
SIPOC
Fournisseur Input Processus Output Client
Employé Original Placez l'original sur la Copie Employé
vitre.
Photocopieuse
Mettez la machine en
Papier mode photocopie.
Retirez l'original de la
vitre et la copie du tiroir
d'impression.
405
Exercices du chapitre 3.5
Taille d’échantillon
Que voulez-vous savoir sur la population ? Taille d’échantillon minimale
recommandée
Valeur moyenne d’une population 5
Ecart-type d’une population 25
Proportion défectueuse (P) dans une population 30
Fréquences de valeurs dans différentes catégories 50
(d’histogramme ou de diagramme de Pareto)
Relation entre les variables (comme dans un diagramme 25
de dispersion ou de corrélation)
Stabilité dans le temps 25
Pareto
Pareto Chart of cause for cancellation of surgery
140 100
120
80
100
occurences
Percent
80 60
60 40
40
20
20
0 0
l. y e d ds e
ai ad l ie ar
m bl
av re lab up be al ila
ai va
o m ot av cc ug
h re a
ro
n r o Fi t
y nt ct
o ra
y no an
er tie do X- te si
st
rg pa o N
o
as
su N o
no N
occurences 57 31 24 12 8 4 4
Percent 40,7 22,1 17,1 8,6 5,7 2,9 2,9
Cum % 40,7 62,9 80,0 88,6 94,3 97,1 100,0
Définition opérationnelle :
Réponse possible :
Standard : aucune forme de rouille n’est tolérée sur les produits qui sont prêts.
Procédure: inspection visuelle à la fin de la ligne de production. L'inspection est effectuée sous
une lumière vive (nombre minimum de lumens) par un évaluateur avec une bonne vue (20/20).
Décision: le produit est approuvé si, après inspection, on ne trouve pas de rouille.
Types de données
Binaire Continue
406
A, B, I D, H, K
Ordinale Nominale/catégorielle
E, G, L C, F, J
Capacité de processus
Dans le cas de données continues, la distribution normale peut être utilisée. Dans le cas de
données discrètes, on regarde le nombre de défauts, traduit en DPMO. Sur la base du DPMO, le
niveau de sigma peut être déterminé.
En traduisant la performance du processus en Cp, Cpk ou valeur Z, les processus peuvent être
comparés entre eux. Les résultats renseignent sur le niveau d'efficacité du processus.
407
Exercices du chapitre 7.5
Distribution normale
a. Oui (P>0,05)
b. Avec un ensemble de données à distribution normale, on peut mieux se prononcer
sur la probabilité de l'output à prévoir, des tests statistiques plus puissants peuvent
être effectués.
Ecart-type
Entre 96 et 102 (plus ou moins 1 écart-type)
Chapitre 8.4
Méthode des 6 chapeaux
408
Exercices Annexe 1.6
Unités statistiques
Réponse:
Histogramme
Ecart-type 0,36
Distribution normale P=0,282 (cela signifie que les données sont distribuées normalement)
409
410
Annexe 5: Charte du projet avec explication
1. AUTORISATION DU PROJET
411
2. DEFINITION DU PROJET
412
3. DESCRIPTION DU PROCESSUS
413
4. RESSOURCES
414
6. PLANNING PROJET
7. RECETTES FINANCIERES
415
Annexe 6 : Tableau T
α/2
(n-1) 0,4 0,1 0,05 0,025 0,01 0,005 0,0025 0,001 0,0005
1 0,325 3,078 6,314 12,706 31,821 63,657 127,321 318,309 636,619
2 0,289 1,886 2,920 4,303 6,965 9,925 14,089 22,327 31,599
3 0,277 1,638 2,353 3,182 4,541 5,841 7,453 10,215 12,924
4 0,271 1,533 2,132 2,776 3,747 4,604 5,598 7,173 8,610
5 0,267 1,476 2,015 2,571 3,365 4,032 4,773 5,893 6,869
6 0,265 1,440 1,943 2,447 3,143 3,707 4,317 5,208 5,959
7 0,263 1,415 1,895 2,365 2,998 3,499 4,029 4,785 5,408
8 0,262 1,397 1,860 2,306 2,896 3,355 3,833 4,501 5,041
9 0,261 1,383 1,833 2,262 2,821 3,250 3,690 4,297 4,781
10 0,260 1,372 1,812 2,228 2,764 3,169 3,581 4,144 4,587
11 0,260 1,363 1,796 2,201 2,718 3,106 3,497 4,025 4,437
12 0,259 1,356 1,782 2,179 2,681 3,055 3,428 3,930 4,318
13 0,259 1,350 1,771 2,160 2,650 3,012 3,372 3,852 4,221
14 0,258 1,345 1,761 2,145 2,624 2,977 3,326 3,787 4,140
15 0,258 1,341 1,753 2,131 2,602 2,947 3,286 3,733 4,073
16 0,258 1,337 1,746 2,120 2,583 2,921 3,252 3,686 4,015
17 0,257 1,333 1,740 2,110 2,567 2,898 3,222 3,646 3,965
18 0,257 1,330 1,734 2,101 2,552 2,878 3,197 3,610 3,922
19 0,257 1,328 1,729 2,093 2,539 2,861 3,174 3,579 3,883
20 0,257 1,325 1,725 2,086 2,528 2,845 3,153 3,552 3,850
21 0,257 1,323 1,721 2,080 2,518 2,831 3,135 3,527 3,819
22 0,256 1,321 1,717 2,074 2,508 2,819 3,119 3,505 3,792
23 0,256 1,319 1,714 2,069 2,500 2,807 3,104 3,485 3,768
24 0,256 1,318 1,711 2,064 2,492 2,797 3,091 3,467 3,745
25 0,256 1,316 1,708 2,060 2,485 2,787 3,078 3,450 3,725
26 0,256 1,315 1,706 2,056 2,479 2,779 3,067 3,435 3,707
27 0,256 1,314 1,703 2,052 2,473 2,771 3,057 3,421 3,690
28 0,256 1,313 1,701 2,048 2,467 2,763 3,047 3,408 3,674
29 0,256 1,311 1,699 2,045 2,462 2,756 3,038 3,396 3,659
30 0,256 1,310 1,697 2,042 2,457 2,750 3,030 3,385 3,646
40 0,255 1,303 1,684 2,021 2,423 2,704 2,971 3,307 3,551
60 0,254 1,296 1,671 2,000 2,390 2,660 2,915 3,232 3,460
120 0,254 1,289 1,658 1,980 2,358 2,617 2,860 3,160 3,373
1000 0,253 1,282 1,646 1,962 2,330 2,581 2,813 3,098 3,300
416
Annexe 7 : Distribution normale
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451
0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148
0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867
0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170
1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985
1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455
1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143
2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036
2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019
2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010
3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007
3,2 0,0007 0,0007 0,0006 0,0006 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005
3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003
3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0002
3,5 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002
3,6 0,0002 0,0002 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001
3,7 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001
3,8 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001
3,9 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
4,0 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
4,1 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
4,2 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
417
Annexe 8 : Tableau Z standard
Z surface Z surface Z surface Z surface
-4,0 0,000032 -2,0 0,022750 0,0 0,500000 2,0 0,977250
-3,9 0,000048 -1,9 0,028717 0,1 0,539828 2,1 0,982136
-3,8 0,000072 -1,8 0,035930 0,2 0,579260 2,2 0,986097
-3,7 0,000108 -1,7 0,044565 0,3 0,617911 2,3 0,989276
-3,6 0,000159 -1,6 0,054799 0,4 0,655422 2,4 0,991802
-3,5 0,000233 -1,5 0,066807 0,5 0,691462 2,5 0,993790
-3,4 0,000337 -1,4 0,080757 0,6 0,725747 2,6 0,995339
-3,3 0,000483 -1,3 0,096800 0,7 0,758036 2,7 0,996533
-3,2 0,000687 -1,2 0,115070 0,8 0,788145 2,8 0,997445
-3,1 0,000968 -1,1 0,135666 0,9 0,815940 2,9 0,998134
-3,0 0,001350 -1,0 0,1586553 1,0 0,841345 3,0 0,998650
-2,9 0,001866 -0,9 0,184060 1,1 0,864334 3,1 0,999032
-2,8 0,002555 -0,8 0,211855 1,2 0,884930 3,2 0,999313
-2,7 0,003467 -0,7 0,241964 1,3 0,903200 3,3 0,999517
-2,6 0,004661 -0,6 0,274253 1,4 0,919243 3,4 0,999663
-2,5 0,006210 -0,5 0,308538 1,5 0,933193 3,5 0,999767
-2,4 0,008198 -0,4 0,344578 1,6 0,945201 3,6 0,999841
-2,3 0,010724 -0,3 0,382089 1,7 0,955435 3,7 0,999892
-2,2 0,013903 -0,2 0,420740 1,8 0,964070 3,8 0,999928
-2,1 0,017864 -0,1 0,460172 1,9 0,971283 3,9 0,999952
-2,0 0,022750 0,0 0,500000 2,0 0,977250 4,0 0,999968
418
Annexe 9: Du Z au DPMO
420
Annexe 11: Abréviations
GB Green Belt (ceinture KPI Key Performance Indicator
verte) (Indicateur de Performance
Clé)
BB Black Belt (ceinture EVA Economic Value Added
noire) (valeur ajoutée économique)
MBB Master Black Belt KPIV Key Process Input Variables
B&C Benefits & Concerns KPOV Key Process Output Variables
SS Six Sigma C&E Cause & Effet
DMAIC Définir, Mesurer, MTBF Mean Time Between Failure
Analyser, Améliorer (délai moyen entre les
(Improve), Contrôler défauts)
DPMO Défauts par million ASM Analyse du système de
d'opportunités mesure
DPO Défauts par opportunité Cp, Cpk Capacité de processus
PPM Pièces par million IC Intervalle de confiance
σ Sigma = écart-type JK Hypothèse nulle
CTQ Critical to Quality J Hypothèse alternative
(critique pour la qualité)
LSL Lower Spec Limit (limite USL Upper Spec Limit (limite de
de spécification spécification supérieure)
inférieure)
VOC Voix du client VOB Voix de l'entreprise
VOE Voix de l'employé
WIP Work In Progress (travail DOE Design Of Experiments
en cours) (conception d'expériences)
SPC Contrôle statistique des TPI Indicateur de performance
procédés de l'équipe
RTY Rolled Throughput Yield RPN Risk Priority Number
(rendement de débit
cumulé)
SIPOC Fournisseur, Input, AMDE Analyse des modes de
Processus, Output, défaillance et de leurs effets
Client
Y Variable d'output VOP Voix du processus
X Variable d’input
421
Index
Sujet Page
422
Diagramme arborescent ......................................................................... 64, 89
Diagramme Cause & Effet........................................................................... 161
Diagramme d’affinité .................................................................................... 57
Diagramme de Pareto ................................................................................... 92
Distance interquartiles ............................................................................... 344
Distribution normale .................................................................................. 351
Distributions ............................................................................................... 347
D-M-A-I-C ...................................................................................................... 30
Documentation du projet ........................................................................... 335
DoE.............................................................................................................. 238
Données continues ..................................................................................... 103
Données discrètes ...................................................................................... 104
Dotplot ........................................................................................................ 378
DPMO............................................................................................................ 22
Ecart-type ................................................................................................... 345
Ecart-type relatif ......................................................................................... 346
Echantillon .......................................................................................... 105, 346
Entièrement factoriel.................................................................................. 244
Equipe projet ................................................................................................ 69
Erreur d'échantillon .................................................................................... 106
Evaluation des parties prenantes ................................................................. 71
Exactitude ................................................................................................... 111
Expériences d’essai ..................................................................................... 279
Facteurs ...................................................................................................... 239
Fiable .......................................................................................................... 114
Fractionnaire Factoriel ................................................................................ 244
Graphique de séries chronologiques .......................................................... 379
Green Belt ..................................................................................................... 29
Histogramme .............................................................................................. 348
Hypothèse alternative ................................................................................ 396
Hypothèse nulle .......................................................................................... 395
I-MR ............................................................................................................ 326
Incliné ......................................................................................................... 348
Input ............................................................................................................. 79
Instruction de travail................................................................................... 317
Interaction .................................................................................................. 244
Intervalles de confiance .............................................................................. 389
Interviews ................................................................................................... 283
423
Ishikawa ...................................................................................................... 161
Jauge. Cf. Gage
Jauge de R&R .............................................................................................. 116
Kalibreren ................................................................................................... 114
Kappa .......................................................................................................... 133
Kendall ........................................................................................................ 133
Kruskal-Wallis ............................................................................................. 212
Kurtose........................................................................................................ 348
Limite de contrôle inférieure ...................................................................... 321
Limite de contrôle supérieure .................................................................... 321
Linéarité ...................................................................................................... 113
Management visuel .................................................................................... 316
Matrice AHP ................................................................................................ 297
Matrice avantages - efforts .......................................................................... 51
Matrice Cause & Effet ................................................................................. 165
Matrice de décision .................................................................................... 293
Matrice de Pugh.......................................................................................... 293
Médiane ...................................................................................................... 342
Mind mapping............................................................................................. 284
Minitab ....................................................................................................... 357
Mise en oeuvre ........................................................................................... 331
Mode .......................................................................................................... 343
Moyenne..................................................................................................... 341
Multi Vari Chart .......................................................................................... 177
Niveau ......................................................................................................... 239
Nombre de Priorité de Risque .................................................................... 171
Output .......................................................................................................... 79
Parcimonie des effets ................................................................................. 245
Pareto ......................................................................................................... 382
Pilote ........................................................................................................... 301
Plan de collecte de données ......................................................................... 97
Plan de contrôle .......................................................................................... 310
Plan en 12 étapes ......................................................................................... 32
Population .................................................................................................. 346
Portée ......................................................................................................... 343
PPM............................................................................................................... 23
Précision ..................................................................................................... 114
Principe de parcimonie des effets .............................................................. 245
424
Projet approprié ........................................................................................... 44
Propriétaire de processus ............................................................................. 28
Quality Function Deployment ....................................................................... 93
Quartiles ..................................................................................................... 344
R&R, gage- .................................................................................................. 114
RACI .............................................................................................................. 70
Régression .................................................................................................. 226
Répétabilité ................................................................................................ 114
Répétitions.................................................................................................. 268
Réplications ................................................................................................ 268
Réponse ...................................................................................................... 239
Reproductibilité .......................................................................................... 114
Reproductible ............................................................................................. 114
Résolution ........................................................................................... 105, 111
Résolution DoE ........................................................................................... 248
risque α et β ................................................................................................ 397
RPN ............................................................................................................. 171
RTY ................................................................................................................ 24
Screening DoE ............................................................................................. 251
SIPOC ............................................................................................................ 78
Six casquettes de réflexion ......................................................................... 287
Sponsor ......................................................................................................... 28
Stabilité ....................................................................................................... 112
Statistiques ................................................................................................. 339
Statistiques descriptives ............................................................................. 372
Stratification ............................................................................................... 100
Tableau T .................................................................................................... 417
Tableau Z .................................................................................................... 419
Tendance centrale ...................................................................................... 339
Test %Defective à 1 échantillon .................................................................. 198
Test %Defective à 2 échantillons ................................................................ 202
Test de normalité........................................................................................ 186
Test d'écart-type à 2 échantillons............................................................... 193
Test du Chi-carré......................................................................................... 216
Test pour les variances égales .................................................................... 208
Test t à 1 échantillon .................................................................................. 188
Test t à 2 échantillons ................................................................................. 190
Test T apparié ............................................................................................. 195
425
Tester les hypothèses ......................................................................... 185, 394
Tests bidirectionnels ................................................................................... 402
Tests unidirectionnels ................................................................................. 402
Tolérance .................................................................................................... 120
Toll-gate Review ........................................................................................... 72
Usine cachée ................................................................................................. 24
Valeur ajoutée économique ......................................................................... 75
Valeur P....................................................................................................... 401
Valeur Z ....................................................................................................... 145
Valide .......................................................................................................... 115
Variance ...................................................................................................... 345
Variation ..................................................................................................... 339
Variation de cause commune ............................................................. 320, 350
Variation de cause normale ........................................................................ 350
Variation de cause spéciale ................................................................ 320, 350
Voix du client ................................................................................................ 50
Voix du processus ....................................................................................... 321
426
The Lean Six Sigma Company délivre des formations, du coaching et
de l’assistance à la mise en oeuvre dans le domaine du Lean et du Six
Sigma. Nous accompagnons et coachons tant les organisations que les
personnes dans leurs ambitions d’amélioration des processus grâce aux
méthodologies Lean Six Sigma. Nos formations peuvent être organisées au
sein de l’entreprise cliente ou être suivies en ‘inscription libre’ inter-
entreprises.
Les cours sont orientés vers la mise en pratique du Lean Six Sigma. Leur
contenu est conforme aux critères internationaux tels que standardisés par
l’ASQ, l’IASSC et l’ISO (ISO 13053).
Chaque année, The Lean Six Sigma Company forme des centaines de
professionnels du Lean Six Sigma et leur apporte un coaching actif en exécution
de projet.