Vous êtes sur la page 1sur 429

Une publication de: The Lean Six Sigma Company

SIX
SIGMA
EN
PRATIQUE
Six Sigma en pratique

1
Auteurs

Rijk Schildmeijer
Master Black Belt et partenaire chez The Lean Six Sigma Company.

Paul Suijkerbuijk
Master Black Belt et partenaire chez The Lean Six Sigma Company.

Couverture :
Nick Heurter, OnlineMarketing.nl B.V.

Titre : Six Sigma en pratique


ISBN: 978-90-821026-1-1
3e impression, 3e tirage, Février 2019

Publié à compte d'auteur. Tous droits réservés. Aucun élément de cette


édition ne peut être copié, stocké dans un fichier électronique et/ou publié
sous quelque forme que ce soit, électroniquement, mécaniquement, par
photocopies, enregistrements ou de toute autre manière sans l'autorisation
écrite préalable de l'éditeur.

2
PREFACE

Merci d'avoir choisi une formation Lean Six Sigma de The Lean Six Sigma
Company. Notre ambition est de vous former pour devenir une ceinture
noire ou ceinture verte afin que vous puissiez par vous-même amener les
organisations à un niveau supérieur. Nous serions heureux de vous aider à
atteindre cet objectif. Nos atouts sont nos formateurs (Master Black Belts
avec des années d'expérience dans le milieu des affaires et d'autres
organisations), notre approche de la formation et notre matériel de
formation. L'amélioration continue est une constante dans tous nos cours.
C'est peut-être avec la même ambition que vous avez commencé ce cours.
Nous ferons tout notre possible pour vous enseigner les méthodes et les
techniques dont vous avez besoin pour traduire cette ambition en résultats.
Bien sûr, l'amélioration continue s'applique également à nous. Nous
aimerions savoir comment nous pouvons améliorer nos cours et le matériel
pour atteindre un niveau de qualité supérieur. En fin de compte,
l'amélioration continue est quelque chose que nous réalisons ensemble.

Nous vous souhaitons beaucoup de succès avec cette formation et


beaucoup d’amusement dans l’application dans votre environnement
quotidien de ce que vous aurez appris.

Mischa van Aalten

Managing Partner

The Lean Six Sigma Company

3
4
Table des matières

PREFACE ...........................................................................................................3
CHAPITRE 0 : INTRODUCTION LEAN SIX SIGMA .............................................15
0.1 Introduction .................................................................................15

0.2 Qu’est-ce que Six Sigma ? ............................................................15


0.3 Origine de Six Sigma .....................................................................17
0.4 Variation .......................................................................................17
0.5 La variation en tant que terme statistique...................................19

0.6 Défauts et niveau de Sigma ..........................................................21


0.7 Variation et défauts dans le processus ........................................23
0.8 L'organisation Six Sigma ...............................................................27

0.9 La structure d’amélioration Six Sigma ..........................................30


0.10 Six Sigma dans les services et dans l’industrie .............................34

0.11 La mise en œuvre de Lean Six Sigma............................................34


0.12 Exercices .......................................................................................38

PARTIE 1 DEFINE (LA PHASE DE DEFINITION) ................................................41


CHAPITRE 1 : SELECTION DU PROJET ET CHAMP ...........................................43
1.1 Introduction .................................................................................43
1.2 Sélectionner un projet..................................................................43

1.3 Déterminer le champ ...................................................................53

1.3.1 La Voix du Client. ..........................................................................53


1.3.2 Diagramme d’affinité ...................................................................57
5
1.3.3 Analyse de Kano ...........................................................................58
1.4 Exercices .......................................................................................60

CHAPITRE 2 : DEFINITION DU DEFAUT...........................................................63


2.1 Introduction .................................................................................63
2.2 Critical to Quality..........................................................................63
2.2.1 Diagramme arborescent...............................................................64
2.2.2 Quality Function Deployment ......................................................65

2.3 La charte de projet .......................................................................65


2.3.1 Autorisation du projet ..................................................................67
2.3.2 Définition du projet ......................................................................67

2.3.3 Histoire du processus ...................................................................69

2.3.4 Equipe de projet ...........................................................................69


2.3.5 Parties prenantes et évaluation des parties prenantes ...............71
2.3.6 Ligne du temps du projet .............................................................72

2.3.7 Résultats .......................................................................................74


2.3.7.1 Valeur Ajoutée Economique (Economic Value Added) ................75

2.4 SIPOC : description du processus dans les grandes lignes ...........79


2.5 Carte du Flux de Valeur (VSM) .....................................................82
2.6 Exercices .......................................................................................83

PARTIE 2: MEASURE .......................................................................................87


CHAPITRE 3 : DETERMINER LE « Y » ET ANALYSER LE SYSTEME DE MESURE 89
3.1 Introduction .................................................................................89

3.2 Du CTQ au Y de projet ..................................................................89


3.2.1 Diagramme arborescent...............................................................90
6
3.2.2 Diagramme de processus détaillé ................................................91
3.2.3 L'analyse de Pareto ......................................................................92

3.2.4 Quality Function Deployment ......................................................93

3.2.5 Champ et Y de projet....................................................................95

3.3 Collecter les données ...................................................................96


3.3.1 Plan de collecte de données.........................................................97
3.3.1.1 Plan de collecte des données : pourquoi mesure-t-on ?..............99

3.3.1.2 Plan de collecte des données : que mesure-t-on ? ......................99


3.3.1.3 Plan de collecte des données : comment mesure-t-on ? ...........104

3.3.1.4 Plan de collecte de données : qui mesure ? ...............................108

3.4 Analyse du système de mesure (MSA) .......................................109


3.4.1 Résolution, exactitude, stabilité et linéarité ..............................111

3.4.2 Précision .....................................................................................114


3.4.3 Jauge de R&R..............................................................................116
3.4.3.1 Jauge R&R pour les variables continues .....................................116
3.4.3.2 Jauge R&R pour variables discrètes ...........................................127

3.5 Exercices .....................................................................................135


CHAPITRE 4 : PERFORMANCE DE BASE ........................................................139
4.1 Introduction ...............................................................................139

4.2 Capacité de processus ................................................................139


4.2.1 Déterminer les normes de performance....................................141
4.2.2 Déterminer la capacité du processus .........................................142

4.3 Performance de base .................................................................147

7
4.4 Exercices .....................................................................................148
CHAPITRE 5 : OBJECTIF FONDE SUR LA PERFORMANCE DE BASE ...........151

5.1 Introduction ...............................................................................151

5.2 Déterminer l’objectif d’amélioration .........................................151

5.3 Recalcul des bénéfices ...............................................................152


5.4 Exercices .....................................................................................152
PARTIE 3: ANALYSE ......................................................................................155
CHAPITRE 6 : CAUSES POTENTIELLES DE VARIATION ..................................157
6.1 Introduction ...............................................................................157
6.2 Causes potentielles (X) ...............................................................158

6.2.1 Outils pour déterminer les causes potentielles .........................159

6.2.2 Diagramme Cause & Effet ..........................................................159


6.2.3 Matrice Cause & Effet ................................................................163
6.2.4 Analyse des modes de défaillance et de leurs effets (FMEA ou
AMDE) ....................................................................................................165
6.2.5 Collecte de données des X .........................................................171
6.2.6 Analyse graphique de données ..................................................172

6.3 Utilisation des instruments ........................................................176


6.4 Exercices .....................................................................................178
CHAPITRE 7 : DETERMINER LES CAUSES PREMIERES ...................................181
7.1 Introduction ...............................................................................181
7.2 Des causes potentielles aux causes premières ..........................181

7.3 Tester les hypothèses .................................................................183

7.3.1 Sélectionner les tests des hypothèses .......................................183


8
7.3.2 Test de normalité .......................................................................184
7.3.3 Test t à 1 échantillon ..................................................................186

7.3.4 Test t à 2 échantillons ................................................................188

7.3.5 Test d'écart-type 2 échantillons .................................................191

7.3.6 Test T apparié .............................................................................193


7.3.7 1-Sample %Defective test (ou test 1 proportion) ......................196
7.3.8 2-Sample %Defective test (test 2 proportions) ..........................200

7.3.9 Analyse de la Variance (ANOVA) Unidirectionnelle ...................202


7.3.10 Test des écarts types ..................................................................206

7.3.11 Analyse de la Variance (ANOVA) bidirectionnelle ......................208

7.3.12 Test de Kruskal-Wallis ................................................................210


7.3.13 Test du Chi-carré ........................................................................214

7.3.14 Binary Fitted Line Plot ................................................................220


7.3.15 Corrélation et régression ...........................................................224
7.3.15.1Régression simple.......................................................................225
7.3.15.2Régression multiple ....................................................................227

7.4 Les causes premières .................................................................230


7.5 Exercices .....................................................................................230
PARTIE 4 : AMELIORER .................................................................................233
CHAPITRE 8 : DETERMINER LA SOLUTION OPTIMALE .................................235
8.1 Introduction ...............................................................................235
8.2 Design Of Experiments ...............................................................236

8.2.1 Introduction DoE ........................................................................236


8.2.2 Terminologie DoE .......................................................................237
9
8.2.3 L’approche DoE ..........................................................................237
8.3 Expériences d’essai ....................................................................277

8.3.1 Collecte des données .................................................................277

8.3.2 Développer des solutions alternatives .......................................278

8.3.2.1 Le brainstorming ........................................................................279


8.3.2.2 Les interviews .............................................................................281
8.3.2.3 Questions qui incitent à réfléchir ...............................................282

8.3.2.4 Le mind mapping ........................................................................282


8.3.2.5 Méthode des six chapeaux .........................................................283

8.3.2.6 Construire sur les idées ..............................................................287

8.3.2.7 Le benchmarking ........................................................................287


8.3.3 Evaluer les solutions alternatives ...............................................288

8.3.4 Evaluation des risques, FMEA ....................................................289


8.3.5 Sélectionner la meilleure solution à partir des alternatives ......290
8.3.5.1 Matrice de décision ....................................................................291
8.3.5.2 Matrice de Pugh .........................................................................291

8.3.5.3 Matrice AHP ...............................................................................295


8.3.6 Réaliser l’expérience d’essai ......................................................297
8.4 Exercices .....................................................................................297
CHAPITRE 9 : TESTER LA SOLUTION .............................................................299
9.1 Introduction ...............................................................................299
9.2 La réalisation d'un pilote ............................................................299

9.3 Gérer le pilote ............................................................................300

10
9.4 Analysez les résultats du pilote ..................................................301
9.5 Conseils pratiques pour un pilote réussi ....................................302

PARTIE 5 : CONTROLE ..................................................................................305


CHAPITRE 10 : GARANTIE ET ANALYSE DU SYSTEME DE MESURE ...............307
10.1 Introduction ...............................................................................307
10.2 Plan de contrôle .........................................................................308

10.3 Mécanismes de contrôle ............................................................309


10.3.1 Anti-erreur (Mistake proofing) ...................................................310
10.3.2 Conception de processus solide .................................................313
10.3.3 Management visuel ....................................................................314

10.3.4 Procédures / Instructions de travail ...........................................315

10.3.5 Cartes de contrôle ......................................................................316


10.4 Analyse du système de mesure ..................................................326
10.5 Exercices .....................................................................................327
CHAPITRE 11 : MISE EN OEUVRE ET CONFIRMATION DE L’AMELIORATION
.....................................................................................................................329
11.1 Introduction ...............................................................................329
11.2 Mise en œuvre ...........................................................................329
11.3 Confirmer l’amélioration ............................................................330
CHAPITRE 12 : CONCLUSION DU PROJET ET TRANSFERT.............................333
12.1 Introduction ...............................................................................333

12.2 Transfert au sponsor ..................................................................333

12.3 Documentation du projet...........................................................333

11
12.4 Leçons tirées, suggestions de projets de suivi, poursuite de la
perfection ................................................................................................334

12.5 Audit projet ................................................................................335


Annexe 1 : STATISTIQUES DE BASE ..............................................................337
A1.1 Introduction ....................................................................................337
A1.2 Statistiques......................................................................................337
A1.3 Valeurs statistiques .........................................................................338
A1.3.1 La moyenne ..................................................................................339
A1.3.2 La médiane ...................................................................................340
A1.3.3 Le mode........................................................................................341

A1.3.4 Etendue ........................................................................................341


A1.3.5 Quartiles .......................................................................................342

A1.3.6 Distance interquartile (IQR) .........................................................342


A1.3.7 Ecart moyen .................................................................................342
A1.3.8 Variance .......................................................................................343
A1.3.9 Ecart-type .....................................................................................343
A1.4 Echantillon par rapport à la population ..........................................344
A1.5 La distribution des données ............................................................345

A1.5.1 Distributions .................................................................................345


A1.5.2 Histogramme................................................................................346
A1.5.3 Distribution normale ....................................................................349

A1.6 Exercices..........................................................................................353

Annexe 2 : INTRODUCTION A MINITAB .......................................................355


A2.1 Introduction ....................................................................................355
12
A2.2 Construction et lay-out ...................................................................355
A2.3 Menus Minitab ................................................................................357

A2.4 Travailler avec Minitab ....................................................................364

A2.5 Sauvegarder le projet ......................................................................382

A2.6 Utilisation de « l'Assistant » dans Minitab 17 .................................382


Annexe 3 : TESTER LES HYPOTHESES ...........................................................387
A3.1 Introduction ....................................................................................387

A3.2 Intervalles de confiance ..................................................................387


A3.3 Tester les hypothèses......................................................................392
Annexe 4: REPONSES AUX EXERCICES .........................................................403
Annexe 5: Charte du projet avec explication ...............................................411
Annexe 6 : Tableau T....................................................................................416
Annexe 7 : Distribution normale..................................................................417
Annexe 8 : Tableau Z standard ....................................................................418
Annexe 9: Du Z au DPMO ............................................................................419
Annexe 10:  selon la valeur P ..................................................................420
Annexe 11: Abréviations ..............................................................................421
Index ............................................................................................................422

13
14
CHAPITRE 0 : INTRODUCTION LEAN SIX
SIGMA
0.1 Introduction
Ce premier chapitre du cours donne un aperçu de Six Sigma en tant que
méthode d'amélioration des processus. Dans ce chapitre, la structure
DMAIC, l'organisation Six Sigma, les rôles Six Sigma et son application dans
l'industrie et les services sont expliqués. Enfin, nous discutons de la mise en
œuvre de Six Sigma dans une organisation.

0.2 Qu’est-ce que Six Sigma ?


Six Sigma est lié à la qualité. Pour répondre à la question ci-dessus, il faut
d'abord répondre à la question suivante :

Qu’est-ce que la qualité ?

Le dictionnaire « Van Dale » donne la définition suivante (traduction libre) :

qua·li·té la ; pl. -s 1 mesure dans laquelle quelque chose est bon ; aspect,
compétence, nature : la ~ de cette matière 2 fonction : en sa ~ de
bourgmestre 3 bonne aptitude : une personne avec des
~és compétences ; articles de ~

Lorsque c’est appliqué à des organisations et des entreprises proposant des


produits et des services, la qualité exprime la mesure dans laquelle les
caractéristiques du produit ou du service sont conformes aux exigences et
aux souhaits du client. Toutes les opérations qu'une entreprise réalise pour
aboutir au produit ou service ont une incidence sur la qualité du résultat.
Ces opérations sont désignées conjointement comme étant le processus.

La qualité est liée tant au produit/service qu'au processus. Il s'agit d'un lien
de cause à effet. Le processus débouche sur un produit ou un service. La
qualité du processus entraîne la qualité du produit ou du service. Six Sigma

15
intervient sur la qualité du processus afin d'améliorer la qualité du produit
ou du service. Il existe deux notions qui jouent un rôle central à ce niveau :

L'efficacité : nos activités correspondent-elles aux besoins du client (faire les


bonnes choses) ?
L'efficience : réalisons-nous nos activités avec un minimum de ressources
(bien faire les choses) ?
Figure 0.0

Six Sigma se concentre sur les deux : l’efficacité et l’efficience.

Dans ce cours, nous voyons Six Sigma comme une méthode utilisée pour
amener la qualité des processus à un niveau supérieur. Le but de Six Sigma
est d'augmenter l'efficacité et l'efficience des processus.

La méthode Six Sigma se compose d'un certain nombre d'étapes, et chaque


étape propose plusieurs outils éprouvés pour passer d'un problème de
processus à une solution basée sur les données améliorant manifestement
l'efficacité et/ou l'efficience d'un processus. Dans les chapitres suivants, ces
étapes et outils sont décrits en détail.

16
0.3 Origine de Six Sigma
Six Sigma est une stratégie de management qui a été développée à l'origine
en 1986 par Motorola, aux Etats-Unis, et qui a été appliquée dans de
nombreux secteurs d'activité. Six Sigma vise à améliorer la qualité des
résultats des processus en identifiant et en éliminant les causes de défauts
et erreurs à l'aide d'un protocole (« DMAIC ») et, ce faisant, en réduisant les
variations dans les processus. Il se compose d'un ensemble de méthodes et
d'outils de gestion de la qualité, y compris des outils statistiques, et
développe une infrastructure particulière avec des personnes de
l'organisation (les « ceintures noires », « ceintures vertes », etc.) qui sont
des experts dans l'utilisation de ces méthodes. Chaque projet Six Sigma dans
une organisation suit un protocole prédéfini et a des objectifs financiers
quantifiables (réduction des coûts et/ou augmentation du bénéfice).

Le terme « Six Sigma » trouve son origine dans la terminologie qui a été
utilisée dans l'industrie de la production, des termes spécifiques qui sont
associés à des modèles statistiques ou des processus de production. La
maturité d'un processus de production peut être décrite avec une
évaluation « sigma », qui indique le rendement, par exemple, en
pourcentage des produits finis sans défauts. Un processus Six Sigma est un
processus dans lequel on s'attend à ce que 99,99966% des produits soient
irréprochables (3,4 défauts par million). L'objectif de Motorola était de
parvenir à « Six Sigma » pour l'ensemble de ses processus de production, et
c'est devenu le surnom de toutes les activités commerciales et techniques
visant à réaliser cet objectif.

0.4 Variation
Six Sigma met l'accent sur la prédictibilité du résultat d'un processus, qui
correspond à la demande des clients. Malheureusement, le résultat d'un
processus n'est pas toujours le même. Les écarts entre les résultats sont
connus comme variation. La variation est présente dans tous les processus.
Quelques exemples :

17
• Le temps qu'il vous faut pour aller de la maison au travail et en revenir ;
certains jours, cela prend plus de temps que d'autres.
• La quantité de frites par sac de pommes de terre.
• Le temps que vous devez attendre à la caisse du supermarché.
• La couleur de différents lots de la même peinture.

La variation se produit dans le résultat d'un processus, ainsi que dans les
étapes du processus lui-même. La variation ne pose aucun problème tant
que le processus présente les résultats désirés, lorsque la variation est faible
par rapport aux spécifications et quand elle est stable dans le temps.

La variation est un facteur déterminant pour l'efficacité et l'efficience d'un


processus ainsi que pour la qualité du processus. La variation est inévitable,
mais ne devient un problème que dans les cas suivants :

• La variation du résultat d'un processus peut conduire à une situation où


il ne correspond plus aux besoins du client, ce qui signifie que le produit
ou service tombe en dehors des spécifications du client. Cela a un
impact négatif sur l'efficacité.
• Quand un processus est divisé en petites étapes et que le résultat
(output) d'une étape sert d'apport (input) à une autre étape, avec ses
propres spécifications, il y aura des problèmes si ce résultat n'est pas
conforme aux spécifications. Dans le cadre de Six Sigma, ces problèmes
sont considérés comme des défauts. Par conséquent, cet output devra
être retravaillé avant que le processus puisse se poursuivre, ou, dans le
pire des cas, l'étape devra être recommencée. Cela provoque des
retards et des coûts supplémentaires et a un impact négatif sur
l'efficience du processus.

Le but de Six Sigma est de réduire la variation des processus afin que le
produit ou le service corresponde aux exigences du client. Dans Six Sigma,
les spécifications du client constituent un concept clé. Les spécifications sont
les exigences mesurables imposées à un produit ou un service (en fonction
des besoins du client).

18
L'importance de la variation est illustrée par la citation suivante du gourou
de la qualité, William Edwards Deming:

« Si je devais limiter mon message aux équipes de management en quelques


mots, je dirais que tout tourne autour de la réduction de la variation » (« If I
had to reduce my message to management to just a few words, I’d say it all
has to do with reducing variation »).

Jack Welch, ancien PDG de General Electric, est l'homme qui a fait connaître
Six Sigma à l’échelle mondiale. Il explique l'importance de la variation de la
manière suivante :

« Nous avions tendance à consacrer toute notre énergie et nos


connaissances Six Sigma au déplacement de la moyenne... Le problème est,
comme cela a été dit, que la moyenne ne se présente jamais et que le client
continue à percevoir les écarts lorsqu'une livraison est assurée en 4 jours et
qu'une autre livraison prend 20 jours, sans véritable cohérence... Cette
variation est néfaste. » (“We have tended to use all our energy and Six
Sigma science to “move the mean”…The problem is, as has been said, the
mean never happens and the customer is still seeing variances in when the
deliveries actually occur-a heroic 4-day delivery time on one order, with an
awful 20-day delay on another, and no real consistency…Variation is Evil.”)

0.5 La variation en tant que terme statistique


Dans les statistiques, la variation s’exprime au moyen d’un écart-type (σ,
sigma). Comme mentionné ci-avant, la variation se produit dans tout
processus. En mesurant les caractéristiques essentielles (comme la taille, le
poids, le point de fusion, le délai) d'un produit ou d'un service, nous
pouvons déterminer s’il correspond aux spécifications. Le résultat de ces
mesures ne sera pas toujours la même, mais variera.
La somme des valeurs divisée par le nombre de mesures nous donne la
moyenne. Les spécifications imposées au résultat d'une caractéristique
présentent une limite inférieure (LSL pour « Lower Specification Limit ») ou
une limite supérieure (USL pour « Upper Specification Limit »), ou les deux.

19
Dans la courbe de Gauss de la fig. 0.1., on indique le nombre de mesures qui
tombent dans la spécification. Dans le chapitre sur les statistiques, nous
examinerons plus en détail la courbe de Gauss (distribution normale).

Figure 0.1

L'écart-type est une mesure de la variation. S'il y a peu de variation, les


valeurs sont souvent proches de la moyenne (dessinant un pic étroit et
élevé). Quand il y a une grande variation, la courbe sera plus basse et plus
large. Cette question sera abordée plus en détail dans le chapitre sur les
statistiques. La figure 0.1 illustre un exemple d'une telle courbe de Gauss,
présentant aussi le phénomène qu'au fil du temps, la variation n'est pas
stable (et limitée), mais augmente. Cette augmentation de la variation à
long terme est souvent estimée à 1,5σ (donc 1,5 fois l'écart-type), et
certains tableaux reprennent déjà 6σ (cf. Annexe 9).

20
0.6 Défauts et niveau de Sigma
Quand une mesure tombe en dehors des spécifications, nous appelons cela
un défaut. Le produit n'est pas approuvé et doit être retravaillé ou, dans le
pire des cas, il est jeté. Le nombre de défauts dans un processus ou à la fin
d'un processus est une indication de la stabilité d'un processus et de la
qualité. Plus petite est la variation (écart-type), plus il y a d’espace par
rapport aux limites de la spécification, et plus la probabilité que des défauts
surviennent est faible.
Le nombre de fois qu’un écart-type (σ) s'inscrit entre la moyenne et les
limites de la spécification est une indication de la stabilité et donc de la
performance d'un processus. Nous appelons cela le niveau sigma (sigma
level en anglais), qui est également connu comme la valeur Z. Donc : Z=3 s'il
s'agit d'un processus avec un niveau sigma de 3, et Z=6 pour un processus
avec un niveau sigma de 6.
Quand on peut loger 6 fois un écart-type entre la moyenne et la limite de
spécification, nous l'appelons un processus 6σ ou un processus avec un
niveau sigma de 6. En exprimant la performance d'un processus de cette
façon, en nombre de sigmas s'intégrant entre la moyenne et la spécification,
nous pouvons comparer différents processus (et même des entreprises ou
des industries). Dans de nombreuses entreprises industrielles, comme
l'industrie automobile, on parle de « Capability » d'un processus. On utilise
alors souvent le terme Cpk, qui équivaut à 1/3 du niveau sigma, soit la
valeur Z = 3 x Cpk.
En résumé, nous sommes donc confrontés à deux notions qui sont souvent
source de malentendus :
 D'une part l'ampleur de la diffusion, exprimée comme étant
l'écart-type du processus.
 D'autre part, le niveau Sigma ou niveau Z, le nombre de fois
que l'écart-type du processus s'intègre entre la moyenne et la
limite de spécification. Dans le cas d'une spécification
bidirectionnelle, avec un processus présentant un niveau sigma
de 6, nous avons donc 2 x 6 = 12 écarts-types entre les limites
de la spécification.
21
Figure 0.2

Les termes suivants sont utilisés dans le cadre de Six Sigma comme unité
pour les défauts :
DPU : Défauts Par Unité, nombre (moyen) de défauts par produit. Ce
nombre peut donc être supérieur à 1.
Opportunités : nombre d'écarts pouvant survenir pour un produit (par
exemple : sur 1 formulaire de 10 champs, vous pouvez faire 10 fautes).
DPO : Défauts Par Opportunité (= taux de défauts) : nombre de défauts réels
divisé par le nombre de défauts possibles. Ce nombre ne peut pas être
supérieur à 1.

DPMO : Défauts Par Million d'Opportunités (nombre de défauts survenus


sur le million d'erreurs possibles). A un niveau 6σ, 3,4 erreurs sont commises
sur le million de possibilités d'erreur (1,5σ de « glissement » de shift est
repris afin que les différences de variation à long et court termes puissent
s'exprimer. Ce phénomène revient régulièrement dans le cadre de Six
Sigma).

22
PPM : Parties Par Million (nombre d'unités par million qui s'écartent des
spécifications, à utiliser avec de très faibles quantités, où par exemple le
pour cent ne peut pas être utilisé comme unité).

0.7 Variation et défauts dans le processus


Pourquoi l’objectif visant à réduire le pourcentage de défauts autant que
possible et à maximiser le niveau de sigma est-il si important ?
La réponse réside dans les conséquences des défauts. Un processus qui
tombe à 99% dans les spécifications semble bon. Mais en cas de grandes
quantités, cela peut avoir les conséquences suivantes :

• 200.000 mauvaises prescriptions par an.


• 15 minutes d’eau potable impropre par jour.
• 7 heures sans électricité par mois.
• 15 minutes de retard de votre montre chaque jour.

Figure 0.3

23
Les défauts ont non seulement des conséquences sur l'output, mais
génèrent également et surtout des opérations et des coûts internes
supplémentaires pour les entreprises. Tous les frais qui sont encourus pour
identifier ou corriger les défauts sont appelés « coûts de la mauvaise
qualité » (COPQ – Cost Of Poor Quality). Toutes les opérations y afférentes
font partie de « l'usine cachée » :

Rendement de débit cumulé (Rolled Throughput Yield - RTY)

Le RTY est une mesure importante dans le cadre de Six Sigma. Le rendement
de débit cumulé indique dans quelle mesure plusieurs étapes dans un
processus sont réalisées sans défauts. Ceci est illustré à la figure 0.4:

Figure 0.4

Seulement 95% * 95% * 95% = 85,7% aboutit dans le réservoir d’eau. Le


reste est déversé et perdu dans l'usine cachée.

Voici un exemple pour illustrer les coûts associés à une mauvaise qualité :

Une entreprise vend un produit X à € 1000 pièce. Chaque trimestre, un


millier de pièces sont vendues. Les coûts variables sont de € 600 par unité,
les frais fixes s'élèvent à € 350.000. Le taux de défaut est de 10% (en
24
d'autres termes, 10% de tous les produits sont déclarés impropres et sont
jetés).

Si les coûts de la mauvaise qualité, dans ce cas sous la forme du taux de


défaut, ne sont pas inclus dans les résultats financiers, le bilan de la société
se présente comme suit:

Chiffre d'affaires €1.000.000


Coûts variables €600.000
Marge variable €400.000

Coûts fixes €350.000


Bénéfice €50.000

Les coûts de l'usine cachée peuvent être clairement mis en évidence comme
suit, ce qui met également en lumière les économies potentielles.

Avec un taux de défaut de 10%, en réalité 1000 / (1-10%) = 1111 produits


ont été fabriqués (111 ont été jetés en raison de défauts). Cela signifie que
les coûts variables par produit étaient de :

€ 600.000/1111 = € 540 par pièce (au lieu de € 600). Le coût de la mauvaise


qualité (COPQ) s'élève à : 111 x € 540 = € 59.946.

Il en résulte le compte de profits et pertes suivant (avec la situation en cas


de zéro défaut à droite) :

Chiffre d'affaires €1.000.000 Chiffre d'affaires €1.000.000


Coûts variables € 540.054 Coûts variables € 540.054
Marge de €459.946 Marge de € 459.946
contribution contribution
Coûts fixes € 350.000 Coûts fixes € 350.000
€ 109.946 € 109.946

COPQ € 59.946 COPQ €0


Bénéfice € 50.000 Bénéfice € 109.946

25
Bref : l'effet de la mauvaise qualité a des conséquences profondes sur les
bénéfices de l'entreprise. Cela signifie qu’un projet Six Sigma qui est utilisé
pour réduire le nombre de défauts est un investissement rapidement
rentabilisé.

Pour illustrer que c'est plus facile à dire qu'à faire, cf. la figure 0.5, qui
représente la théorie de l'iceberg. Nous ne voyons qu'une partie des coûts
cachés au-dessus de la surface. Il va falloir travailler de manière méthodique
pour identifier les autres coûts cachés et en éliminer la cause !

Figure 0.5

26
0.8 L'organisation Six Sigma
Dans ce paragraphe, nous allons aborder l'organisation d’un programme Six
Sigma et les rôles au sein de cette organisation. La figure 0.6 donne un
aperçu :
Figure 0.6

Champion

Le Champion est le (Operations) Manager, qui est responsable de la mise en


œuvre du Six Sigma et qui en dirige le déploiement. C'est lui qui veille à ce
que les personnes (ceintures (Belts) et sponsors) soient formées. Le
Champion sera souvent membre de l'équipe de management ou de la
direction. Le Champion assume en outre les responsabilités suivantes :

• S’assurer qu’il y a un mandat pour le projet.


• Approuver la composition de l’équipe.
• Fournir les ressources nécessaires pour la phase Roll-Out (déploiement).
• Tenir des project reviews et apporter des adaptations.
• Faire en sorte que les recommandations d'un projet soient mises en
œuvre.

27
• Faire en sorte que les économies des projets soient réalisées.
• Acceptation des résultats du projet.
• Faire en sorte que les sponsors/propriétaires de processus fassent
garantir les améliorations pour le long terme via les ceintures
noires/vertes.

Master Black Belt

Un Master Black Belt est, en tant que spécialiste Six Sigma, responsable de la
stratégie Six Sigma, de la formation et de la supervision des ceintures (Belts),
ainsi que du déploiement et des résultats de la structure Six Sigma. Ses
tâches et connaissances reprennent :

• Les techniques statistiques avancées Six Sigma.


• Le coaching et la supervision des Black Belts.
• Le soutien lors du déploiement de Six Sigma.
• L'assurance de la qualité du programme de formation.
• La fourniture d’une assistance pour résoudre les problèmes Six Sigma.
• La direction des projets complexes.
• L’aide à la sélection et à la définition des projets.
• L’assurance de l'expertise et des connaissances dont les Black Belts ont
besoin dans les projets.

Sponsor de projet / propriétaire de processus

Le sponsor Six Sigma est un propriétaire de processus qui est responsable


des résultats du projet Six Sigma (de son processus). En outre, il est
responsable des finances de son processus et, à ce titre, des bénéfices des
résultats du projet. Ses tâches consistent à :

• S'assurer qu'il y a un mandat de projet.


• Approuver la composition de l'équipe du projet.
• Apporter un soutien pour résoudre les goulots d'étranglement.
• Aider à la sélection et à la définition des projets.

28
• Etre propriétaire du problème et, plus tard, de la solution.
• Etre propriétaire de processus.
• Etre propriétaire des résultats financiers du projet.
• Veiller aux moyens nécessaires pour le projet.

Black Belt (ceinture noire)


Une ceinture noire est un expert Six Sigma formé qui dirige les équipes
d’amélioration, réalise des projets et guide les ceintures vertes. Ses tâches
sont les suivantes:

• Accepter et valider le mandat du projet.


• Diriger et réaliser des projets d'amélioration.
• Appliquer la méthode Six Sigma.
• Fournir des analyses statistiques.
• Aider le Champion dans l'identification des projets et l'établissement
des mandats de projet.
• Transférer les résultats du projet au propriétaire de processus.
• Coacher et superviser les ceintures vertes.
• Rapporter à la direction la progression et les résultats des projets.
Green Belt (ceinture verte)
Une ceinture verte est formée à Six Sigma et, en plus de son travail régulier,
prend part à des équipes de projet Six Sigma ou réalise des projets ayant
une portée limitée. Les dirigeants qui assurent un projet d'amélioration
d'ampleur limitée sont souvent formés pour être ceinture verte. Nous
pouvons citer parmi les tâches d'une ceinture verte :

• Aider le Champion dans la sélection de projets Six Sigma potentiels.


• Définir et mener des petits projets d'amélioration.
• Aider les ceintures noires dans de plus grands projets Six Sigma.

29
Yellow Belt (ceinture jaune)
Une ceinture jaune a reçu une formation de base à Six Sigma. Il comprend le
concept de Six Sigma, parle le « langage » Six Sigma et participe souvent à
des équipes d'amélioration.

Orange Belt (ceinture orange)


Chez certains formateurs (uniquement aux Pays-Bas), il y a aussi des
ceintures orange (et d'autres couleurs). Il s'agit toutefois d'une classification
qui n'existe pas au niveau international. Le niveau d'une telle ceinture n'est
donc pas clair, mais elle peut être classée entre la ceinture verte et la
ceinture jaune. Quoi qu'il en soit, nous n'utiliserons de préférence pas ce
terme. C'est d'autant plus le cas pour les autres couleurs (rouge, brun, doré,
argenté).

Autres membres de l’équipe

D'une manière générale, les autres membres de l'équipe sont des employés
possédant des connaissances spécialisées du processus qui doit être
amélioré. Ils apportent leur expertise pour aider à résoudre le problème
dans le processus.

0.9 La structure d’amélioration Six Sigma


DMAIC

La structure d'amélioration Six Sigma se compose de 5 étapes principales et


de 12 sous-étapes. Les principales étapes sont connues en tant que D-M-A-I-
C:
Define Décrivez le problème à aborder et la valeur de la résolution
(Définir) du problème pour l'organisation. Organisez l'équipe
d'amélioration.

30
Measure Définissez le défaut et rassemblez des informations de base
(Mesurer) sur la performance du produit ou du processus. Définissez
les objectifs d'amélioration. Assurez un système de mesure
approprié.

Analyse Déterminez quels paramètres du processus (inputs - X) ont


(Analyser) le plus d'effet sur les résultats critiques du processus
(outputs - Y).

Improve Identifiez les améliorations possibles et argumentez dans


(Améliorer) quelle mesure les objectifs du projet seront réalisés avec
ces améliorations.

Control Mettez les solutions qui ont été sélectionnées en œuvre et


(Contrôler) assurez-vous qu’elles sont garanties dans le processus et
dans l'organisation. Partagez les solutions avec d'autres
intervenants qui ont (peuvent avoir) un problème de
processus similaire.
Pour passer en revue les principales étapes du processus et réaliser les
objectifs à chaque étape, l'approche Lean Six Sigma fournit une boîte à outils

Figure 0.7

31
(toolbox) remplie de méthodes et d'outils. La figure 0.7 en donne un aperçu
schématique. Les outils qui peuvent être utilisés dans les diverses étapes
sont décrits dans les chapitres suivants.
Les 12 étapes
Les principales étapes DMAIC sont souvent approfondies dans un
programme en 12 étapes. Pour réaliser les améliorations, l’approche se
concentrera de plus en plus sur les détails. Le client est au cœur de
l'approche :
Qu'est-ce que le client considère important par rapport à notre produit ou
service ? Que demande le client ?

La « voix » du client (Voice of the Customer - VOC) est le point de départ.


Elle devra être traduite en des exigences pour notre processus, les
spécifications. Quels sont les aspects de qualité critiques et mesurables
auxquels le processus doit satisfaire (Critical To Quality ; CTQ) ? Quels sont
les résultats de processus qui déterminent si nous répondons à ces
spécifications et comment pouvons-nous mesurer ces outputs (Y) ? Quels
sont les inputs (X input) et les variables de processus (X processus) qui ont le
plus d’impact sur la valeur de Y ? Toutes ces questions sont
systématiquement parcourues dans le plan en douze étapes et une réponse

Figure 0.8
32
y est apportée. Schématiquement, un projet Lean Six Sigma se présente
comme suit.(figure 0.8)
Le plan en 12 étapes comprend les étapes suivantes :
1 Sélection et champ du projet.
2 Définition du défaut.
3 Déterminer le Y et analyser le système de mesure.
4 Performance de base.
5 Préciser l’objectif d'amélioration sur la base de la performance de
base.
6 Identifier les causes possibles de la variation.
7 Déterminer les causes premières.
8 Déterminer la solution optimale.
9 Tester la solution.
10 Garantie et analyse du système de mesure.
11 Mise en œuvre et démonstration de l'amélioration.
12 Documentation du projet et transfert.

Figure 0.9

33
Les 12 étapes servent de fil conducteur pour le projet Six Sigma et seront
expliquées une par une dans les chapitres suivants.

0.10 Six Sigma dans les services et dans l’industrie


Six Sigma a pris naissance dans l'industrie, mais il a également fait sa place
dans le secteur des services et des pouvoirs publics. Les principales
différences entre les processus industriels et les processus administratifs
sont les suivantes :

• Les processus et les gaspillages sont moins tangibles dans les processus
administratifs.
• Historiquement, le secteur des services s’appuie moins sur la science et
la technologie.
• Le secteur des services est moins axé sur les processus.
• Il y a moins de collaborateurs avec un profil de gestion des processus
dans le secteur des services.
• Le secteur des services se concentre principalement sur des KPI
financiers.
• Il y a moins de données disponibles sur les processus dans le secteur
des services.
• Dans le secteur industriel, des termes tels que pièces et produit semi-
fini sont utilisés, tandis que, dans le secteur des services, il est
généralement question de transactions (qui peuvent également être
mesurées).

Cela ne signifie pas que les clients du secteur des services ne s'attendent pas
à un service fiable et cohérent.

0.11 La mise en œuvre de Lean Six Sigma


Une organisation Lean Six Sigma est une organisation qui :

• A une vision sur ses processus et sait comment ils ajoutent de la valeur
à la clientèle.
• A rendu la performance (et la variation) de ces processus mesurables.
34
• Utilise la performance et la variation comme point de départ pour
l'amélioration continue avec Lean Six Sigma.
• A créé une prise de conscience en matière de gaspillages et de valeur
client à tous les niveaux.

Il est impossible pour une organisation de réaliser cet objectif du jour au


lendemain. C'est pourquoi il est important de lui permettre de s'étendre et
de laisser la méthode Lean Six Sigma faire ses preuves via des résultats.
Commencez à petite échelle et créez une dynamique. Formez l'organisation
à la méthode Lean Six Sigma dans le respect des rôles définis au
paragraphe 0.8. Assurez-vous de commencer par la formation du
Management (Champion et sponsors) et ensuite des ceintures. Lancez des
projets pilotes réalistes et ne cherchez pas à résoudre tous les problèmes à
la fois, mais commencez par des projets clairement définis qui vous
permettent d’obtenir un résultat rapide avec un investissement mineur.
Ramassez d'abord les « fruits à portée de main » et les « fruits sur le sol »
(ce qui est souvent possible avec des projets Lean).
Figure 0.10

Choisir un premier projet adapté est d'une importance cruciale pour le


succès de la mise en œuvre.

35
Le tableau ci-dessous fournit des directives pour un projet approprié ou
inapproprié :
Projet approprié Projet inapproprié
• Met l'accent sur les défauts et • Niveau de complexité
la variation élevé
• Axé sur la réduction des coûts • Large champ
ou sur l'amélioration de • Solution connue
l'efficience • Données difficiles à
• Convient pour l'application des obtenir
étapes DMAIC et des outils • Nécessite des
• Fruits à portée de main investissements élevés
• Des données historiques et • N’est pas lié aux objectifs
réelles sont disponibles stratégiques
Lancez le déploiement dans l'ensemble de l'organisation après les premiers
résultats et sélectionnez des projets qui sont liés aux objectifs stratégiques
de l’entreprise. Visez des projets de « rupture ». Lean Six Sigma ne résout
pas tous les problèmes. Le tableau suivant illustre quand Lean Six Sigma doit
ou ne doit pas être utilisé :
Utiliser Ne pas utiliser
• Pour atteindre un objectif • Quand il n'y a pas de
difficile ou résoudre un problèmes spécifiques à
problème épineux : résoudre
o Lié à la stratégie • Lorsque la solution au
d'entreprise problème existe déjà ou
o Qui a toujours existé est vraiment évidente
o Dont la solution n'est pas • Quand il n'y a pas de
encore connue processus incohérent
• Pour impliquer l'organisation devant être amélioré
dans l’identification et la
résolution des problèmes
• Pour obtenir une solution solide
et soutenue
• Pour développer la créativité et
l'esprit d'équipe
• Pour créer « l'appropriation »
en ce qui concerne les
problèmes et les solutions

36
Toutes les mises en œuvre de la méthode Lean Six Sigma n’ont pas été
couronnées de succès. Au fil du temps, des facteurs de succès et des pièges
ont été cartographiés. Cf. l'énumération suivante :

Facteurs de succès Pièges

• Portée par la direction • Pas de reconnaissance de Six


• Approche « top-down » Sigma
combinée à une approche • Six Sigma est un objectif
« bottom-up » supplémentaire s'ajoutant
• L'argent et les ressources aux activités existantes
sont disponibles • Les bonnes personnes ne
• Accent sur les résultats (en sont pas formées
termes de coûts et de • Pas assez de temps pour une
satisfaction de la clientèle) bonne exécution des DMAIC
• Programme lié à la stratégie • Les ceintures qui réussissent
• Sélection des bons projets sont perçues comme une
• Mise à disposition des menace
personnes appropriées • Insuffisance des moyens
• Utilisation sensée des disponibles pour des projets
DMAIC et des outils Six Sigma

37
0.12 Exercices

Rendement de débit cumulé (Rolled Throughput Yield - RTY)


Supposons que j'aie un processus à 5 étapes avec un RTY de 59%. Quel est
alors mon taux d'échec par étape ? (en partant du principe qu'il est soumis à
une répartition proportionnelle)
Figure 0.11

Défauts Formulaire
Supposons que l'un des champs du
formulaire ci-contre soit mal rempli. Nom …………… Age …….

Quel est le DPO ? Nom de famille ………………….

DMAIC
a. Quelles sont les phases de la structure d'amélioration Six Sigma ?
b. Quelles sont les 12 étapes en lesquelles ces 5 phases sont subdivisées ?

Qualité
a. Avec Six Sigma, la qualité du processus est améliorée. Quels sont les
deux concepts de base de cette qualité ?
b. Que signifient ces concepts ?

Origine du Six Sigma


a. Qu’est-ce que Sigma ?
b. Quel est le niveau Sigma (ou niveau Z) ?
c. Pourquoi est-ce appelé « Six Sigma » ?
38
Rôles Six Sigma
a. Quels sont les rôles au sein d'une organisation Six Sigma ?
b. Quels sont les rapports de ces rôles par rapport au nombre de
collaborateurs ?

39
40
PARTIE 1 DEFINE (LA PHASE DE DEFINITION)

Dans cette première partie, nous discutons de la première phase de la


méthode DMAIC. Comme indiqué dans le chapitre précédent, le but de la
phase de Définition est le suivant :

Décrire le problème qui doit être résolu et la valeur de la résolution du


problème pour l'entreprise. Organiser l'équipe d'amélioration.

Les deux étapes suivantes du programme en 12 étapes occupent une place


centrale dans la phase de définition :

1 Sélection et champ du projet

2 Définition du défaut

Après cette partie, vous serez en mesure de :

• Expliquer le rôle et l'importance de la phase de définition


• Déterminer le CTQ d’un projet
• Composer une équipe de projet Six Sigma
• Etablir une charte de projet Six Sigma

En fin de phase « Define », les éléments suivants doivent être livrés :

• Voix du Client
• CTQ projet et Y projet
• Charte projet & Kick-off
• Carte du processus

41
42
CHAPITRE 1 : SELECTION DU PROJET ET
CHAMP

1.1 Introduction
Dans ce chapitre, on détermine sur quel problème il faut travailler. Ce
problème est tiré des exigences du client et se traduit dans le résultat d'un
processus. On vous donne des techniques pour transformer une exigence
qualitative en un résultat de processus mesurable. En outre, vous
apprendrez à traduire le problème en un plan d'action, la charte du projet,
qui sert de ligne directrice pour l'exécution du projet.

1.2 Sélectionner un projet


Choisir le bon projet Lean Six Sigma est essentiel pour sa réussite. Dans ce
paragraphe, la sélection d'un projet Lean Six Sigma est décrite en 5 étapes :

1. Identifier les éléments de l’organisation qui déterminent la valeur


2. Identifier les opportunités et les possibilités
3. Examiner la liste des possibilités
4. Champ et définition des projets
5. Prioriser la liste des projets

43
Figure 1.0

Ce protocole conduit au choix d'un projet (Lean) Six Sigma. Un projet


approprié répond aux critères suivants :

• Il a un objectif difficile à réaliser ou un problème difficile à résoudre qui


existe depuis un certain temps et dont la solution n'est pas connue.
• On met des moyens à disposition pour résoudre le problème.
• Les connaissances, les compétences et la motivation des personnes
impliquées sont disponibles pour résoudre le problème.
• La solution doit être solide et du soutien doit être apporté aux
personnes qui vont travailler avec la solution.

44
Un projet n'est pas approprié si :

• Le problème n’est pas clair.


• La cause du problème et le chemin menant à la solution sont déjà
connus.
• Le problème n'a aucun rapport avec une amélioration des processus.

La figure 1.1. illustre une représentation schématique du processus de


recherche de projets appropriés :

Figure 1.1

Le processus passe d'une phase de « divergence » (augmentation du


nombre) lors de la traduction des idées en projets possibles à une phase de
« convergence » (réduction du nombre) lors de la sélection des projets
critiques parmi la liste des projets potentiels. Dans les paragraphes suivants,
les 5 étapes de ce processus sont décrites plus en détail.

Dans la première étape, on identifie les éléments qui sont précieux pour
l'organisation.

45
On recherche la réponse à la question : « qu'est-ce qui est important pour
l'organisation ? ». Le terme qui est utilisé dans Six Sigma est la « Voix de ... »
ou « The Voice of... ».

La figure ci-dessous illustre les différents types de contributions utilisés pour


déterminer ce qui est important :
Figure 1.2

« La Voix de l'Entreprise » représente la stratégie de l'organisation. Cette


orientation stratégique peut être dirigée vers l'extérieur (client, marché) ou
vers l'intérieur (financier : chiffre d'affaires, coûts). La Voix du Client
représente l'approche client/marché.

46
Figure 1.3

Voice Of the Business (Voix de l'Entreprise)

Les projets Six Sigma peuvent affecter le compte de profits et pertes ainsi
que le bilan. Les différents éléments du bilan peuvent être le point de départ
de l'amélioration. La valeur ajoutée économique (EVA) est la base de la
subdivision. L'EVA est décrite plus en détail plus loin dans cet ouvrage. La
figure 1.4 donne une représentation schématique de cette subdivision.

47
Figure 1.4

Les perspectives suivantes peuvent être un moteur de l'amélioration :

• Chiffre d'affaires
• Coûts d'exploitation
• Frais généraux
• Actifs
• Fonds de roulement

Le tableau 1.0 illustre les opportunités d'amélioration qui peuvent être une
raison d’entamer un projet d'amélioration :

48
Opportunités • Combinaison • Nom de la marque
d’amélioration services/produits • Canal de distribution
liées au chiffre • Combinaison clients • Rationalisation produit
d’affaires • Qualité • Innovation
• Garantie
• Efficacité des ventes

Opportunités • Rendement • Temps de conversion


d’amélioration • Coûts d'achat • Productivité
liées aux coûts • Coûts du matériel • Efficience du concept
opérationnels • Coûts des matières • Etendue du contrôle
premières • Sous-traitance
• Standardisation • Amélioration de
• Heures processus
supplémentaires
• Automatisation

Opportunités • Temps de mise sur le • Transactions


d’amélioration marché • Externalisation de
liées aux frais • Priorité du projet l'administration
généraux • Compétences du • Services partagés
projet • Productivité
• Spécifications

Opportunités • Mean Time Between • Capacité de production


d’amélioration Failure (MTBF) • Contrats de
liées aux actifs • Mean Time To Repair location/sous-traitance

Opportunités • Travaux en cours • Standardisation de


d’amélioration • Stock de produits l’expédition
liées au fonds de finis • Stocks périmés
roulement • Stock de matières • Modalités de paiement
premières • Transactions
• Retouches • Technologie
• Planification de la
production
• Prévisions

Tableau 1.0

49
Voice Of the Customer (Voix du Client)

La Voix du Client permet de mieux comprendre qui sont nos clients et ce


qu'ils attendent de nous. Dans une entreprise, il existe de nombreuses
sources d'informations sur ce que nos clients pensent de nos produits et
services. Quelques exemples :

• Enquêtes de satisfaction de la • Plaintes des clients


clientèle • Taux de réussite des offres
• Informations sur la garantie • Demandes d’offre
• Informations du département • Développement des parts de
service client marché
• Etudes de marché • Retours de produits
• Etudes de benchmark • Demandes de support technique
• Questions des clients

Toutes ces informations fournissent une image de nos prestations et


peuvent être une source d'amélioration. Dans le cadre de la phase de
définition du projet Six Sigma, la voix du client est examinée en détail.

Voice Of the Process (Voix du Processus)

Lors de l'identification de la Voix du Processus, il est important de


considérer le processus au-delà du département. Le récapitulatif suivant
illustre les différences entre les processus et les départements :

Processus Département

• Production • Production
• Traitement des commandes des • Service à la clientèle,
clients planification de la production
• Expédition du produit • Planification de la production,
• Facturation des clients entrepôt, distribution
• Vente du produit • Administration
• Développement de nouveaux • Ventes, Marketing, Production
produits • Engineering, R&D
• Embaucher des employés • HRM
50
Nous nous concentrons sur les processus, pas sur les départements.
Lorsqu’on réalise la cartographie des processus avec les parties concernées,
les goulots d'étranglement sont rapidement mis en évidence. Ces goulots
d'étranglement peuvent être utilisés comme point de départ pour un projet
Lean Six Sigma.

Les étapes 1 et 2 pour la sélection d'un projet ont souvent lieu


consécutivement dans une session avec les parties intéressées. Plusieurs
améliorations potentielles ont déjà été identifiées sous la Voix de
l'Entreprise. Dans la troisième étape, le blé est séparé de l'ivraie en ce qui
concerne les opportunités d'amélioration. Un outil utile pour réaliser ce
dépistage est la « matrice bénéfice/effort » de la figure 1.5.
Les bénéfices potentiels (benefit) sont comparés aux investissements ou aux

Figure 1.5

efforts (effort) estimés, en tenant compte des objectifs stratégiques et des


risques potentiels. Les opportunités d'amélioration à forte valeur ajoutée

51
qui peuvent être réalisées avec relativement peu d'efforts passent à l’étape
suivante.

A l'étape 4, les opportunités d'amélioration restantes sont explorées jusqu'à


une première (brève) définition du projet. Le projet est défini dans ce
« Sixpack ». Les éléments du « Sixpack » sont décrits dans le tableau 1.1 :
Tableau 1.1

Impact sur l'entreprise Description du problème


• Pourquoi devrions-nous agir de • Qu'est-ce qui ne va pas, quel est le
la sorte ? Dans quelle mesure problème auquel nous sommes
nous en porterions-nous mieux ? confrontés/nos clients sont
• Quel est le rendement financier confrontés ? Qu'est-ce qui ne
estimé? fonctionne pas bien ?
• Comment le projet s'inscrit-il • Quand le problème a-t-il
dans la stratégie de commencé ?
l'entreprise ? • Où le problème se produit-il ?
• A quoi d’autre devons-nous • Quelle est l’ampleur du problème ?
penser (conditions couvrant le • Pourquoi pensons-nous pouvoir
projet, risques, réglementation créer de la valeur, comme décrit
et législation) ? dans l'impact sur l'entreprise ?
Objectif Champ du projet
• Quel est l'objectif de • Quelles sont les limites de l'initiative
l'amélioration ? Quel ou du projet (où cela commence-t-il
pourcentage d’amélioration et quand cela se termine-t-il) ?
pouvons-nous atteindre ? • Quelle est l'autorité de l'équipe et
• Qu’allons-nous faire et quel sera qui décide ?
le résultat ? • Qu’est-ce qui n'est pas inclus dans
• Comment allons-nous mesurer le champ ?
le succès du projet ?
Plan du projet Sélection de l’équipe
• Combien de temps l'ensemble • Qui sont les membres de l'équipe ?
du projet va-t-il durer ? • Quel est leur rôle ?
• Quand commençons-nous et • Combien de temps consacrent-ils au
quand aurons-nous terminé ? projet ?
• Quels sont les grands jalons ?
• Quels sont les problèmes que
nous pourrions rencontrer ?

52
Ces courtes définitions du projet offrent une vision plus concrète du
potentiel d'amélioration de ces projets. Dans la dernière étape, un
classement des priorités est dressé sur la base du « Sixpack ».

Suite à ce classement, le management va décider, souvent en collaboration


avec la (les) ceinture(s) noire(s), quel(s) projet(s) démarrer en premier, et
quel projet sera dirigé par quelle ceinture noire. Outre les objectifs
financiers et clients, des objectifs stratégiques et de politique joueront
également un rôle important dans l'établissement des priorités. Une fois
que les projets et chefs de projets ont été sélectionnés, les ceintures noires
procèdent à la phase de définition de leur projet.

1.3 Déterminer le champ


La qualité d'un service ou d'un produit est déterminée par la valeur que le
client lui attribue. Il peut s'agir d'un client interne ou externe. Pour
déterminer le champ du projet d'amélioration et définir le problème, nous
partons du client. Dans Lean Six Sigma, c'est ce que l'on appelle la Voix du
Client, ou Voice of the Customer. (VOC)

1.3.1 La Voix du Client.


Identifier les souhaits et les besoins de la clientèle à l'égard du service ou du
produit est la première étape dans la méthode Six Sigma pour traiter un
problème de processus. Ce problème est toujours lié au client. Il peut s'agir
d'un client interne ou d'une autre partie intéressée à l'intérieur ou à
l'extérieur de l'entreprise (par exemple des exigences légales ou
réglementaires). La voix du client (VOC) décrit les besoins du client et sa
perception à l'égard du produit ou service. La VOC permet de donner une
orientation au projet d'amélioration. C’est effectivement le client qui
détermine ce qu'est la qualité.

La VOC est exprimée sous la forme d’exigences qualitatives, souvent en


rapport avec les facteurs suivants :

53
Facteur Explication

Délai et - Temps d’attente, livraison ponctuelle


ponctualité
Exhaustivité - Caractère complet de la livraison
Courtoisie - Attention personnelle
Cohérence - Savoir à quoi on peut s’attendre
Accessibilité - Facilité d'obtention
Précision - Fonctionne sans défauts
Réponse - Efficacité des interventions en cas de
situations imprévues
La voix du client aide également à déterminer le champ du projet. Quel
problème du point de vue du client allons-nous traiter ? A l'étape suivante
(chapitre 2), ce problème sera traduit en exigences de qualité pour notre
processus. Dans Lean Six Sigma, ces exigences sont appelées Critical To
Quality. Pour déterminer la VOC et le CTQ, on suit les étapes suivantes :
Figure 1.6

1 Identifiez les clients et déterminez de quelles informations on a besoin


(VOC).
2 Rassemblez des données réactives (de systèmes) et complétez-les avec
des données proactives (VOC).

54
3 Analysez les données et faites une liste des besoins cruciaux du client
(VOC).
4 Traduisez ces besoins des clients en CTQ.
5 Rédigez les spécifications pour ces CTQ.

Dans ce chapitre, nous examinons les étapes 1 à 3. Les étapes 4 et 5 sont


décrites dans le chapitre suivant.

1. Identifiez les clients et déterminez de quelles informations on a besoin


Il y aura différents clients qui achèteront votre produit ou service. Souvent,
les clients peuvent être divisés en segments de marché. Les segments de
marché diffèrent les uns des autres parce qu'ils ont des besoins et souhaits
différents concernant le produit ou le service. Priorisez les clients et les
segments de marché et identifiez les plus importants pour déterminer la
voix du client.

2. Rassemblez les données système réactives et complétez-les avec des


données proactives
Nous savons maintenant sur quel groupe de clients ou segment de marché
nous devons collecter des informations. Dans l'étape suivante, on collecte
des données clients qui renseignent sur ce que le client considère comme
important. Une distinction est faite entre les données réactives et
proactives. Les données réactives sont des données que l’on récolte sur la
base d'initiatives du client, par exemple des plaintes, réclamations ou des
appels de service. Les données proactives sont des données que l'on collecte
en allant les chercher nous-mêmes chez les clients, par exemple via des
interviews, des études de marché ou une visite sur place. La collecte de
données proactives demande du temps et de l'argent. Il est donc préférable
de commencer avec des données réactives. Si elles ne donnent pas
suffisamment d'informations sur la voix du client, la collecte de données
proactives peut être envisagée. Assurez-vous qu'elles soient recueillies de
façon structurée et rationnelle et qu'elles contribuent au projet. Lors de la
collecte des données du client, suivez les directives suivantes :

55
• Commencez par les données réactives : faciles à obtenir, elles
fournissent une compréhension de base des besoins du client.
• Analysez les données des systèmes réactifs : essayez de découvrir des
modèles et des tendances (par exemple dans les plaintes des clients).
• Etudiez le comportement du client : de nombreux clients ne donnent
pas de feed-back, mais adoptent eux-mêmes des mesures et changent
leur façon d'agir vis-à-vis de votre entreprise. Pensez par exemple à la
rétention de clients.

Voici quelques exemples de Voix du Client :

• « Nous avons besoin de livraisons fiables aux dates confirmées ».


• « Je veux des délais plus courts pour certains produits spéciaux ».
• « Je n'aime pas que les délais de livraison changent ».
• « Nous avons besoin d'une réponse plus rapide à nos questions ».
• « Le service clientèle a été incapable de répondre à ma question ».
• « La communication est essentielle, même quand il n'y a pas de
problèmes ».
• « Vous devez effectuer certaines procédures plus rapidement ».
• « Il serait bon d'obtenir des services standard plus rapidement ».
• « Il devrait être plus facile de passer une commande ».

3. Analysez les données et faites une liste des exigences essentielles du


client
Le résultat des étapes 1 et 2 est une large sélection de données clients. Dans
cette troisième étape, ces données sont traduites en informations sur le
client. Ces informations servent d'input pour l'étape suivante dans le
processus : la définition des exigences d'output pour votre processus ou du
Critical to Quality (CTQ). Pour obtenir les principales informations à partir
des données des clients, il est essentiel de classer les données selon des
thèmes. Le « diagramme d'affinité » est un outil pouvait être utile à ce
niveau. Au paragraphe suivant, nous expliquons comment le diagramme
d'affinité peut être appliqué.

56
1.3.2 Diagramme d’affinité
Le diagramme d'affinité est utilisé lors de la collecte de grandes quantités
d’informations orales ou écrites (idées, opinions, problèmes) et il les
organise en groupes en fonction de relations naturelles.

Construction d’un diagramme d'affinité (en utilisant des post-it sur un


tableau ou un « brown paper ») :

• Rassemblez les remarques des clients que vous souhaitez analyser


- Un post-it par remarque
- Placez-les sur le mur
• Classez les remarques qui traitent de problèmes ou thèmes généraux
- Déplacez les post-it dans les groupes thématiques
• Nommez chaque thème
- Nommez chaque thème en tant que problème ou besoin du client
• Regroupez les post-it par catégorie
- Faites-le uniquement s'il y a des sous-catégories à reconnaître ou
renommez les thèmes ou les problèmes
• Evaluez les données et définissez les problèmes principaux suivant la
voix du client

Figure 1.7

57
1.3.3 Analyse de Kano
Lors de la définition de ce que le client considère comme important, il y a un
risque que des points jugés évidents pour le client ne soient pas
mentionnés, car le client suppose implicitement qu'ils sont ou seront réglés.
C'est un risque réel, parce que le client sera très mécontent si cela s'avère
ne pas être le cas (par exemple une voiture sans freins). L'analyse de Kano,
inventée par le Japonais Kano, cartographie les exigences exprimées et
tacites, ce qui en fait un outil utile pour obtenir une meilleure
compréhension de la voix du client. Dans le diagramme de Kano, ces
différents souhaits sont regroupés en besoins de base (« obligatoires »),
besoins de performance (« souhaités ») et besoins d’excitation
(« attrayants »). En utilisant ces catégories, le diagramme de Kano nous
permet de travailler sur les bons CTQ. Bien qu'il soit possible d'améliorer la
satisfaction des clients et de gagner des clients en travaillant sur les besoins
d’excitation, en négligeant les besoins de base, vous allez perdre des clients
plus rapidement que vous n’allez les acquérir par les besoins d’excitation.
Reverse (« inverse ») indique que certaines spécifications supplémentaires
peuvent aussi avoir un impact négatif sur la satisfaction. Par exemple dans le
cas d'un smartphone : des applications ou des boutons supplémentaires
peuvent rendre le téléphone plus attrayant, mais trop de boutons et des
applications inutiles peuvent aussi le rendre complexe et peu pratique.

58
Figure 1.8

Figure 1.9
59
1.4 Exercices
Sélection du projet
Quelles sont les 5 étapes qui constituent une bonne sélection de projet ?

Voix du …
a. Il existe différentes « voix » qui disent quelque chose sur un projet.
Nommez-en trois.
b. Quelle voix est la plus importante ?

VOC
Quelles sont les 3 catégories essentielles auxquelles on peut presque
toujours ramener la Voix du Client ?

Le modèle de Kano
Le modèle de Kano propose un certain nombre de catégories qui disent
quelque chose sur la VOC par rapport au produit ou au service. Classez les
produits/services ci-dessous sur les axes du modèle de Kano (voir la
figure 1.8).

Attrayant : Souhaitable :
Indifférent : Obligatoire :

a. Quand le produit est livré plus rapidement, je suis plus satisfait !


b. Grâce à de nouvelles fonctionnalités, vous pouvez maintenant utiliser
votre téléphone pour activer l'air conditionné ou le chauffage de votre
voiture à distance.
c. Il y a du papier toilette dans les toilettes.
d. Après avoir reçu la confirmation, vous serez appelé pour répondre à
d'éventuelles questions.
e. Des collations sont servies lors des pauses pendant la formation.
f. Les étagères du nouveau lave-vaisselle sont grises.
g. La formation en petits groupes permet d’avoir plus de temps pour une
attention individuelle.
h. Lorsque nous avons commandé une bière au restaurant, ils ont ajouté
un snack complémentaire.

60
i. La peinture répond à toutes les exigences obligatoires pour un label
européen.
j. A compter du 1er janvier, vous n'avez plus besoin de demander de
permis pour abattre des arbres sur votre propriété.

61
62
CHAPITRE 2 : DEFINITION DU DEFAUT

2.1 Introduction
Dans ce chapitre, nous nous focalisons davantage sur le champ, et le
problème ou l’exigence du client sera traduit(e) en exigences concrètes
quant à la qualité du processus. En outre, un choix sera fait concernant les
exigences qui seront retenues pour être traitées dans le projet
d'amélioration. En termes Lean Six Sigma, la voix du client est traduite en
CTQ.

2.2 Critical to Quality


Critical to Quality (CTQ) est le terme qui est utilisé pour désigner
d'importantes caractéristiques mesurables d'un produit ou d'un processus.
Le CTQ fait référence à la « norme de performance » qui doit être réalisée
pour satisfaire le client - ou le donneur d'ordre. C'est le lien entre le souhait
du client et le problème critique qui fait l'objet du projet d'amélioration.
Habituellement, on travaille sur 1 ou 2 CTQ dans un projet. La détermination
des CTQ est considérée comme la première étape de la méthode DMAIC et
fixe l’orientation du projet. Le CTQ doit être exprimé en une indication
mesurable objective, mais pas nécessairement numérique. Parfois, la VOC
est déjà spécifique et pas très différente du CTQ. Dans ce cas, il est
important de ne pas créer une différence artificielle.

4. Traduire les besoins des clients en CTQ

Le besoin de la clientèle qui a été déterminé à l'étape 3 est maintenant


traduit en une exigence du processus. La question suivante occupe une
place centrale dans cette traduction : « A quelles exigences le processus
doit-il satisfaire pour résoudre le problème du client ou répondre à ses
attentes ? ».

63
Par exemple :

La Voix du Client Critical to Quality


Délai de réponse lent Réponse rapide aux demandes du client
Livraison à temps Livraison avant ou à la date de livraison
Les contacts avec le client sont Les questions doivent pouvoir être
parfois confus adressées simplement
CTQ candidat

Parfois, il y a plusieurs CTQ possibles qui peuvent contribuer à la voix du


client trouvée. Dans ce cas, il y a deux outils fréquemment utilisés pour
arriver au meilleur CTQ.

2.2.1 Diagramme arborescent


Le diagramme arborescent est aussi appelé CTQ-Flowdown. Ce point sera
examiné plus en détails dans la phase de Mesure. Le diagramme
arborescent est construit en mettant la voix du client au plus haut niveau
(dans la couronne) et en plaçant un niveau en dessous tout ce qui y
contribue au niveau CTQ. Ensuite, on détermine avec le
sponsor/propriétaire de processus sur quel CTQ on peut travailler au mieux.
Normalement, c'est le point sur lequel il y a le plus grand besoin ou la plus
grande nécessité d'amélioration. Ensuite, dans la phase de Mesure, on
traduira si nécessaire le CTQ choisi en un Y projet simple et mesurable. Par
ailleurs, vous avez peut-être déjà reçu en tant que ceinture un projet au
niveau d'un CTQ, voire d'un Y spécifique. Essayez dans ce cas de vérifier quel
est le véritable besoin du client et pourquoi votre projet est plus important
que d'autres projets possibles qui sont liés à ce même besoin du client.

64
2.2.2 Quality Function Deployment
Un autre outil possible est le QFD, qui signifie « Déploiement des Fonctions
de Qualité », souvent appelé aussi la Maison de la Qualité (HoQ – House of
Quality). Il s'agit d'un outil qui peut être utilisé pour classer les CTQ
potentiels sur la base de leur contribution aux principales VOC définies
précédemment. Vous recevrez un article numérique sur la façon dont le QFD
peut vous aider à définir le CTQ.
5. Déterminer les spécifications des CTQ

Dans la dernière étape, des spécifications sont déterminées pour le CTQ de


façon à rendre le résultat mesurable.
CTQ CTQ spécifié
Réponse rapide aux demandes du Réponse aux questions en < 45
client minutes
Livraison avant ou à la date de Livraison à la date de livraison avant
livraison 17:00

Les questions doivent pouvoir être La question du client arrive


adressées simplement directement à la bonne personne
 En résumé :
 La voix du client détermine le domaine d'amélioration.
 A l'aide du diagramme d'affinité et/ou du QFD et/ou du diagramme
arborescent, nous traduisons ces besoins en CTQ, de préférence
mesurables. Vous pouvez directement y associer la priorité du
client.
 Ensuite, vous étudiez avec les données et la spécification la plus
grande lacune dans la prestation - limiter le champ.
 Vous traduisez alors le CTQ (si nécessaire) en processus Y, ou en y
plus restreint (processus partiel).

2.3 La charte de projet


Déterminer les CTQ qui seront traités dans le projet permet de se
concentrer sur ce qui va être amélioré. Pour assurer cette amélioration de

65
manière structurée et maintenir le projet gérable, un plan de projet
compact est établi. Dans Lean Six Sigma, c'est ce qu'on appelle la charte de
projet. La charte de projet clarifie l'objectif du projet et la démarche. Elle
oriente l'équipe, garde l'équipe sur la bonne voie vers l'objectif
d'amélioration et fournit une feuille de route pour l'exécution du projet. En
outre, la charte de projet est un contrat entre le client et la ceinture verte
ou noire qui dirige le projet. Le client est généralement appelé « sponsor ».
Il est le propriétaire du processus (et donc du problème) au début du projet
et de la solution à la fin de celui-ci. Ce sponsor est également la personne
qui met les personnes et les ressources nécessaires à disposition.

Une charte de projet Six Sigma décrit toujours les éléments suivants :

• La description du problème (le défaut)


• La délimitation du projet (champ)
• La description du processus qui doit être amélioré
• L'objectif d'amélioration
• Le planning du projet
• L’estimation des avantages financiers
• Les principaux acteurs du projet et leurs rôles
La charte du projet comprend également l'autorisation (in casu la signature
du client)

La charte de projet est un document vivant qui est ajusté à plusieurs


reprises au cours du projet.

L'Annexe 5 contient un exemple des sujets inclus dans une charte de projet.
Dans les paragraphes suivants, nous discutons de la façon de mettre en
place une charte de projet.

66
2.3.1 Autorisation du projet
Dans la partie d’approbation du projet de la charte du projet, le lancement
du projet est formalisé. Sur la base d’une brève description du projet et des
avantages du projet en termes de qualité, délai de livraison, coûts et
satisfaction du client, on demande l’approbation des clients et des
principales parties prenantes. Bien que cette partie se trouve au début de la
charte, elle est généralement complétée lorsque la charte est finalisée, donc
en dernier lieu.
L'Annexe 5 reprend une charte de projet avec explication des champs.
L'objectif de l'approbation formelle est de créer un engagement chez le
client et de s'assurer que les ressources et les moyens sont mis à la
disposition du projet. Qui doit signer dépend de la structure de compétence
de l'organisation et de la position de Lean Six Sigma au sein de
l'organisation. En règle générale, les personnes suivantes sont celles qui
autorisent le projet :

• Client / Propriétaire de processus / Sponsor (toujours)


• Champion (souvent)
• Master Black Belt (parfois)
• CFO/Contrôleur (parfois)

2.3.2 Définition du projet


La définition du projet oriente le projet et le délimite. Le projet est défini sur
la base des éléments suivants :

• Définition du problème
La définition du problème fournit une description de la situation
actuelle basée sur les faits. Cette description indique ce qui va mal, où
et quand le problème est apparu, l'ampleur du problème et comment le
problème se manifeste. La voix du client fournit des indications pour la
définition du problème.
• Objectif
L'objectif fournit une description de la situation future souhaitée, après
l'achèvement du projet. L'amélioration de la performance est quantifiée
67
dans le cadre de l'objectif. Dans la première version de la charte du
projet, cet objectif sera une estimation exprimée en termes de CTQ. A
mesure que le projet avance et que l'on comprend mieux les données et
les opportunités, l'objectif sera ajusté et le Y projet sera utilisé. Avant la
phase d'analyse, l'objectif sera quantifié sur la base de la performance
de base (voir le paragraphe 4.3). Exprimez l'objectif numériquement en
termes de niveau de performance souhaité et évitez de formuler des
solutions et des causes dans l'objectif.
• Le CTQ projet et le Y projet
L'exigence de qualité du processus sous la forme du CTQ est indiquée
pour orienter le projet. Dans la phase suivante, le CTQ est concrétisé
sous la forme d’un output de processus clair et mesurable: le Y projet
(cf. chapitre 3 : Mesurer)
• Limites du projet
Les limites du projet indiquent les frontières du projet. Il est important
d'indiquer ce qui est et n'est pas inclus dans le projet. Pensez, par
exemple, aux clients, segments, départements, lieux et éléments du
processus qui sont et ne sont pas inclus dans le projet.
• Limitations du projet
Les limitations du projet concernent les marges de manœuvre que vous
avez pour traiter le processus. Dans cette partie, vous indiquez, souvent
en collaboration avec votre sponsor, le cadre dans lequel la solution
doit s'inscrire. Souvent, il existe des restrictions à l'égard de la solution.
Pensez par exemple aux procédures existantes ou à la législation, aux
technologies disponibles, aux obligations contractuelles. Outre les
restrictions à l'égard de la solution, il peut aussi y avoir des restrictions
par rapport à la mise en œuvre de la solution, par exemple de la
résistance au changement ou par rapport à la culture de l'organisation.

68
2.3.3 Histoire du processus
L'histoire du processus contient une brève description de l'origine et du
développement du processus, en plaçant le processus dans un contexte
historique. Comprendre les changements du passé peut aider pour les
changements futurs.

En plus de l'historique, la charte de projet contient également les grandes


lignes du processus. La technique utilisée à ce niveau est le SIPOC. Elle est
plus amplement commentée au paragraphe suivant (2.4).

Outre l’aperçu du processus, il est aussi très important de fournir un aperçu


de la performance du processus. Cet aspect ne sera traité qu'à l’étape 4 de
la phase de mesure : la performance de base.

2.3.4 Equipe de projet


Un projet Lean Six Sigma est réalisé avec une équipe de parties intéressées
du processus et d'experts du processus. Les connaissances et les réponses
seront fournies via la structure et les techniques Lean Six Sigma à partir de
l'organisation. Lors de l'organisation de l'équipe de projet, il est important
de viser la diversité d'expertise et d'opinions. Lorsque le processus qui doit
être amélioré implique plusieurs départements, il doit y avoir au moins un
membre de l'équipe issu de chaque département. Habituellement, une
équipe est composée de 4-6 membres. Assurez-vous que ce ne soit pas
toujours les mêmes personnes qui composent une équipe d'amélioration.
Les connaissances et l'expertise nécessaires dans les différentes phases du
projet peuvent différer. Adaptez l'équipe en fonction de cet aspect durant le
projet. Veillez bien à ce que l'équipe de base soit maintenue. L'équipe de
base s'occupera du projet pendant une grande partie de la durée de celui-ci.
Il est donc essentiel d'un point de vue organisationnel de s'assurer que l’on
donne à l'équipe de base et aux autres membres de l'équipe (temporaires)
du temps et de la marge de manœuvre pour apporter leur contribution au
projet.
Pour prendre un bon départ avec l'équipe, il est recommandé d'organiser un
kick-off (réunion de lancement) afin de créer une vision partagée du projet,

69
de l'objectif et de la façon dont cet objectif sera réalisé. Un kick-off dure
environ deux heures. Ci-dessous, un ordre du jour indicatif pour le kick-off :
1. Introduction 15 min.
2. Explication de Lean Six Sigma 15 min.
3. Déterminer le mandat de l’équipe 15 min.
4. Déterminer les règles de réunion 10 min.
5. Déterminer les rôles et responsabilités 20 min.
6. Déterminer le plan de feedback et de communication 10 min.
7. Wrap up : définir les actions clés, les avantages et
les préoccupations 15 min.
Dans la première étape, vous expliquez qui vous êtes et pourquoi les
membres de l'équipe ont été invités. Dans la deuxième étape, vous
expliquez en des termes généraux ce qu’est Lean Six Sigma. Dans la
troisième étape, vous discutez du problème que vous allez tous essayer de
résoudre, ainsi que ce que vous pouvez et ne pouvez pas influencer (le
mandat que vous avez défini avec votre sponsor).
En outre, vous discutez des règles de réunion ainsi que des rôles et
responsabilités des membres de l'équipe et des vôtres au sein de l'équipe de
projet. Puisqu'une bonne communication entre l'équipe et l'organisation est
d'une importance cruciale pour l'acceptation du résultat futur, on décidera
lors de la réunion de lancement comment organiser cette communication
via le plan de communication.
Enfin, vous aborderez les actions convenues et vous terminerez avec les
« tops & tips » (avantages et préoccupations) de la réunion.
En plus de l'équipe d'amélioration, les clients et les parties prenantes
immédiates de l'organisation jouent également un rôle important dans la

70
Figure 2.0

réussite du projet. Pour conclure des accords clairs, les rôles et les
responsabilités doivent être clairement définis. La matrice RACI est un outil
utile à ce niveau.
RACI signifie :
• Responsible : la personne qui s'assure qu’une tâche ou étape est
réalisée.
• Accountable : la personne responsable du résultat final de la tâche ou
de l’étape.
• Consulted : personne consultée au sujet de la tâche ou de l'étape avant
qu'une décision soit prise.
• Informed : personne qui est informée d'une décision relative à la tâche
ou à l'étape après que la décision a été prise.
Dans la matrice, on indique sur l'axe Y quels sont les agents concernés par le
parcours. Sur l'axe X, on indique quelles sont les tâches ou quelles étapes ou
quels « livrables » (deliverables) sont fournis. Aux intersections, le rôle de
chaque agent (R, A, C ou I) est indiqué pour chacune des étapes. De cette
façon, tout le monde sait ce que l'on attend et qui est responsable de quoi.

2.3.5 Parties prenantes et évaluation des parties


prenantes
Les parties prenantes sont les personnes ayant un intérêt direct dans
l'exécution et/ou les résultats du projet. Elles ne sont pas impliquées dans le
projet en tant que tel, mais elles sont affectées par celui-ci. Souvent, cela

71
signifie que, à leur tour, elles peuvent influer sur le cours du projet. Pour y
répondre adéquatement et s'assurer que ces forces restent gérables, une
évaluation des parties prenantes est préalablement effectuée.
Le but de l'évaluation des parties prenantes est surtout d'obtenir une vision
claire permettant de savoir si certaines parties prenantes requièrent une
attention particulière pour les motiver ou les garder à bord. Un exemple
d'évaluation de partie prenante est mis à disposition par voie numérique. Il
peut aussi être utilisé comme modèle pour compléter votre projet.
Les parties prenantes qui peuvent influencer le processus ou être
influencées par celui-ci sont reprises dans la charte de projet. L'évaluation
des parties prenantes, dans laquelle il est indiqué comment les différentes
parties prenantes considèrent le projet (positivement ou négativement,
avec un score), est décrite dans un document distinct et ne fait pas partie de
la charte du projet. La charte du projet est un document de communication
visant les différentes personnes impliquées. L'évaluation des parties
prenantes, qui est une évaluation subjective de la résistance possible au sein
des parties prenantes, n'appartient pas à la charte, mais c’est une
information importante pour la ceinture noire ou la ceinture verte, afin
qu'ils puissent travailler à l'acceptation des résultats.

2.3.6 Ligne du temps du projet

Figure 2.1
72
La ligne de temps du projet indique la planification du projet sur la base des
jalons les plus importants. Les phases du projet DMAIC sont les jalons fixés
dans la planification. Au début du projet, une planification initiale est
réalisée. La principale incertitude à l'égard de la solution se produit pendant
la phase Improve, au cours de laquelle la solution est mise en œuvre, parce
que ni la solution ni le délai de mise en œuvre ne sont connus au début du
projet. Puisque lors de ces phases, il y a beaucoup d'incertitudes concernant
ce qui doit se passer et combien de temps cela prendra, nous ne rendons
pas la ligne du temps inutilement complexe ou détaillée. Pour un projet
DMAIC de 4-6 mois, vous pourriez prendre environ un mois par phase.
Lors de l'utilisation de la méthode DMAIC, il est de coutume d'organiser une
Toll-gate Review à la fin de chaque phase. Une Toll-gate Review est une
réunion formelle entre l'équipe de projet et le sponsor (client). L'objectif de
cette réunion est de vérifier si le projet est toujours dans les délais et si
l’objectif visé par le projet est toujours réalisable. La review se termine avec
une décision go/no-go concernant le lancement de la phase suivante. Au
cours de la Toll-gate review, les questions suivantes sont abordées :

• Présentation du projet jusqu'à ce jour avec les principaux livrables, les


résultats et les goulets d'étranglement.
• La charte du projet : les différents thèmes de la charte du projet sont à
nouveau vérifiés et le cas échéant adaptés. Pensez par exemple au
planning, aux résultats attendus et à l'objectif.
• Questions et points de discussion en suspens.
• Décision du Toll-gate (go/no go).
• Actions et étapes de suivi.
Rédigez le procès-verbal de la Toll-gate Review et conservez-le en tant
qu'élément de la documentation relative au projet. Veillez à ce que chaque
partie intéressée puisse retrouver dans un système de suivi quels sont les
Toll-gates déjà passées. Le Champion en aura particulièrement besoin pour
lui permettre de suivre les progrès des projets Lean Six Sigma.

73
2.3.7 Résultats
La dernière partie de la charte de projet décrit les résultats du projet
attendus, qui peuvent être répartis en résultats tangibles et intangibles. Les
résultats financiers quantifiables sont considérés comme des résultats
tangibles. Voici quelques exemples de résultats intangibles : l'amélioration
de la satisfaction du client, les coûts évités ou l’amélioration du moral.
Mentionnez ces résultats intangibles dans la charte de projet. Dans le reste
de ce paragraphe, nous allons nous concentrer sur les résultats tangibles.
Les résultats financiers apparaîtront plus clairement au cours du projet,
parce que les améliorations réalisées deviennent plus claires.
Il y a au moins trois moments formels auxquels les résultats financiers sont
évalués et définis dans la charte de projet :
1. Dans la phase Define : à l'étape 2, lors de la définition du problème : les
résultats financiers sont une estimation basée sur l'objectif.
2. Dans la phase Measure : après l'étape 5, Prestations de base et objectif
d'amélioration : on a maintenant une vision sur la performance du
processus et l'écart par rapport à la situation souhaitée. Les objectifs
peuvent maintenant être définis plus précisément en termes de Y
projet. Sur la base de cet ajustement, il est possible d'estimer les
résultats financiers avec plus de précision.
3. Dans la phase Improve après l'étape 8 : la définition de la (des)
solution(s) : sur la base des solutions, il est possible d'estimer leurs
coûts de mise en œuvre. Cette information peut être utilisée pour faire
une analyse de rentabilité (business case). Quels sont les bénéfices
après déduction des coûts ? Cette analyse de rentabilité peut jouer un
rôle important dans la décision go/no go concernant la mise en œuvre.

Dans de nombreuses entreprises, on vérifie encore une fois quelques mois


après la conclusion formelle du projet si les résultats prévus sont conformes
aux attentes précédemment exprimées. Il incombe au Champion de veiller à
ce que ce contrôle soit assuré.

74
Faire une bonne analyse de rentabilité est une compétence en soi. Il est
recommandé d'impliquer un expert, comme le contrôleur financier, dans la
réalisation de l'analyse de rentabilité.

Exemples de résultats quantifiables qui sont la conséquence directe du


projet :

• Economies directes des coûts


• Augmentation du chiffre d’affaires
• Rendement d'intérêt supplémentaire
• Flux de trésorerie accru

Exemples de coûts de mise en œuvre :

• Adaptation de l'équipement
• Adaptations logicielles
• Nouvelles procédures et instauration de celles-ci
• Perte de capacités pendant la mise en œuvre

2.3.7.1 Valeur Ajoutée Economique (Economic


Value Added)
Pour déterminer la valeur ajoutée du projet d'amélioration en termes
financiers, de nombreuses entreprises utilisent la valeur ajoutée
économique (EVA – Economic Added Value). Si l'entreprise où vous assurez
le projet utilise une autre méthode (comme l'IRR ou le pay-out time),
adaptez votre calcul en conséquence. Nous indiquons dans la présente une
manière plus ou moins universelle pour définir les résultats du projet à l'aide
de l'EVA.
EVA : les bénéfices annuels après impôts et après déduction des coûts liés
au projet. La figure 2.2 illustre comment l'EVA est déterminée :

75
Figure 2.2

Terminologie :
EBITDA : Bénéfice avant intérêts, impôts, Manière de mesurer les
dépréciation, amortissement bénéfices bruts avant
(Earnings Before Interest, Taxes, déduction de divers postes
Depreciation, Amortization) (notamment les impôts et les
amortissements).
NEBIT : Bénéfice net avant intérêts et Bénéfices d'exploitation
impôts (Net Earnings Before avant déduction des impôts
Interest & Taxes) et intérêts.
NOPAT : Bénéfice net d'exploitation Bénéfices d'exploitation nets
après impôt (Net Operating après déduction des impôts.
Profit After Tax)
WACC : Coût moyen pondéré du capital Indice moyen des coûts du
(Weighted Average Cost of capital, nombre qui exprime
Capital) les coûts encourus par une
société pour le capital avec
lequel la société est financée
(souvent 8-10%)
EVA : Valeur ajoutée économique Les bénéfices annuels après
76
(Economic Value Added) impôts et après déduction
des coûts liés au projet.
VC : Création de valeur (Value Nombre permettant de
Creation) calculer les bénéfices à long
terme d'un projet par rapport
à la valeur actuelle.
Les projets Lean Six Sigma peuvent avoir un effet à la fois sur les bénéfices
de l'entreprise et sur le capital. L'EVA exprime le bénéfice et l’utilisation du
capital, et, ce faisant, apporte un soutien financier pour la valeur ajoutée
(court terme) d'un projet. On utilise la création de valeur (Value Creation)
pour déterminer la valeur à plus long terme. Les EVA futures sont
actualisées par année par rapport au présent. Voir l'exemple de la figure 2.3.
Figure 2.3

Comment l’EVA peut-elle être influencée ?


Il y a deux piliers qui influencent l'EVA : l'augmentation des profits et la
réduction de l'utilisation du capital. Dans le tableau 2.0, cela est réparti en
CTQ qui peuvent être traités avec un projet :

77
Tableau 2.0

Piliers EVA Objectifs CTQ


d’amélioration
Augmentation Augmentation du • Augmentation de la
des profits fidélité des clients
chiffre d’affaires
• Augmentation des
profits par client
• Augmentation des
nouveaux clients
• Augmentation de la
rapidité de service
• Amélioration de la
qualité du service
Réduction des coûts • Augmentation de la
productivité
• Augmentation du
rendement de la
production
• Réduction des délais
Utilisation du Réduction des • Meilleur usage de la
technologie
capital immobilisations
• Meilleur usage des
installations
• Meilleure utilisation de
la capacité
Réduction du fonds de • Réduction des stocks
• Réduction du délai
roulement
entre « payer » et
« être payé »

Il est recommandé d'impliquer le département de contrôle dans le


développement des résultats financiers du projet d'amélioration. Pour de
nombreuses entreprises multinationales, c'est même obligatoire. Lors du
développement des résultats, reprenez les éléments suivants dans la charte
de projet :

78
• La période au cours de laquelle la performance actuelle et les coûts de
la mauvaise qualité ont été calculés comme base de référence pour
déterminer les économies.
• Les hypothèses sur lesquelles les calculs sont fondés, par exemple s’il y
a assez de demandes pour les produits / services supplémentaires qui
pourraient être produits suite à ce projet.

2.4 SIPOC : description du processus dans les


grandes lignes
Une description de processus permet de mieux comprendre le
développement d'un produit ou d'un service et la relation entre les
différents départements. Un processus est défini comme suit :

Une série d'activités qui utilisent un ou plusieurs inputs et les transforme en


output qui a de la valeur pour le client.

Une représentation schématique d'un processus (carte de processus) :

• Aide l'équipe à comprendre le processus.


• Veille à ce que les membres de l'équipe aient le même point de vue.
• Valide le champ du projet.
• Précise le sujet à traiter pour l'équipe.
• Aide à identifier les domaines qui sont sous (mais aussi hors de) votre
contrôle.
• Est un outil de communication pour expliquer le processus à d'autres, à
la fois en interne et à l’extérieur.
• Crée un pont entre la charte de projet et le travail ultérieur.

Lors de la description d'une carte de processus de haut niveau (High Level


Proces Map), les points de départ suivants sont utilisés :

• De manière globale, le processus est subdivisé en plusieurs activités, qui


se succèdent généralement.

79
• Des lignes de connexion ou des flèches sont utilisées pour relier les
activités et, ce faisant, on indique l'ordre et le flux à travers le
processus.
• La carte du processus illustre la situation actuelle (as-is) et non la
situation future souhaitée (to-be).
• La carte de processus de haut niveau décrit généralement le processus
en 4-7 étapes.

La méthode que nous utilisons généralement dans Six Sigma pour créer une
carte de processus est le SIPOC. SIPOC signifie :
S Supplier Fournisseur : personne ou entreprise qui fournit un input à
votre processus.
I Input Apport : matériaux, ressources et données qui sont
nécessaires pour l’exécution du processus (composé de
noms).
P Process Processus : un ensemble d'activités qui nécessitent un ou
plusieurs types d'input et qui créent un output qui a de la
valeur pour le client (composé de verbes).
O Output Résultat : les produits ou services tangibles qui sont le
résultat d'un processus - qui devraient satisfaire les besoins
du client (composé de noms).
C Customer Client : une personne ou une organisation qui reçoit
l'output de votre processus. Peut être interne ou externe.

La figure 2.4 illustre une représentation schématique d'un processus SIPOC.


Les inputs y sont indiqués par des X et les outputs par des Y. Dans les
chapitres suivants, ils occuperont une place centrale dans la recherche de
l'amélioration.

80
Figure 2.4.

Créer une carte SIPOC :

1. Identifiez le début et la fin du processus.


2. Définissez les étapes du processus entre le début et la fin (4-7 étapes).
3. Identifiez les outputs du processus à partir des questions suivantes :
- Quel produit/service crée ce processus ?
- A quel point ce processus se termine-t-il ?
- Quelles sont les informations que donne ce processus ?
4. Identifiez le client de chaque output (qui utilise les produits, services et
informations résultant de ce processus ?).
5. Déterminez les principaux inputs du processus (qu’est-ce qui déclenche
le démarrage du processus ?).
6. Déterminez les principaux fournisseurs à partir des questions suivantes :
- Qui sont les fournisseurs ?
- Que fournissent-ils ?
- A quel niveau influencent-ils le flux du processus ?
- Quel effet ont-ils sur le processus et le résultat ?
7. Validez la cartographie des processus par rapport à la situation actuelle.
Est-ce que les collaborateurs travaillent réellement conformément à la
cartographie des processus (la cartographie des processus ne diverge-t-
elle pas des procédures formelles en utilisant ce qui se passe dans la
pratique ?).
La figure 2.5 illustre une carte de processus complétée. Assurez-vous qu'il y
a au moins un client pour chaque output et un fournisseur pour chaque
input.

81
Figure 2.5

2.5 Carte du Flux de Valeur (VSM)


La Carte du Flux de Valeur (VSM – Value Stream Mapping) est une technique
de Lean Manufacturing qui est utilisée pour analyser et concevoir le flux
(flow) de matières et d'informations nécessaire pour fournir un produit ou
un service à la clientèle. La technique est née chez Toyota et est connue
comme « cartographie du flux de matière et d'information ». La Value
Stream Mapping peut être appliquée à pratiquement n'importe quelle
chaîne de valeur.

Pour plus d'informations sur la manière de mettre en place une VSM, nous
vous renvoyons à notre cours consacré au « Lean dans la pratique » ou à
l'ouvrage « Apprendre à voir » de Rother et Shook.

82
Exemple de VSM :

Figure 2.6

2.6 Exercices
Résultats
Après la définition de la solution optimale, l'équipe du projet s’accorde sur
un chiffre d'affaires supplémentaire potentiel de 1.000.000 €. C'est une
prévision fantastique, mais les frais nécessaires devront pour cela être
engagés chaque année. Ces frais s'élèvent à € 400.000. Les impôts sur les
bénéfices pour le gain supplémentaire sont fixés à 20%.
L'équipe du projet se prépare à la Toll-gate review afin de déterminer si le
projet peut se poursuivre ou non. A cet effet, les informations présentées ci-
dessus sont collectées pour calculer l'EVA. Que vaudra l'EVA ?
83
o EVA € 420.000
o EVA € 480.000
o EVA € 510.000
o EVA € 560.000

EBITDA et EVA d’un projet de réduction de coûts


Exemple de projet :
« La réduction des rebuts de la machine XYZ permettra de réduire les coûts
de matières » :
 Les rebuts de la machine XYZ s’élèvent à € 450.000 par mois.
 On en réutilise 40%.
 Ce projet réduit les rebuts restants de moitié (50%).
 Le taux d'imposition est de 25%.
a. Calculer l'EBITDA de ce projet par mois.
b. Que vaut l'EVA pour la première année ?
EVA d’une augmentation du chiffre d’affaires
Exemple de projet :
« Réduire le délai va augmenter le chiffre d'affaires » :
 Le délai actuel est de 9 jours ouvrables.
 D’après le département des ventes, nous perdons 5 commandes par
mois parce que notre délai est long. Apparemment, d'autres offrent un
délai de 3 jours ouvrables.
 L’ampleur moyenne des commandes est 10.000 €.
 La marge bénéficiaire moyenne sur nos produits est de 18%.
 La réduction des délais générera 5 commandes supplémentaires par
mois.
 Le taux d'imposition de 25%.
Que vaut l'EVA la première année ?
L'EVA à partir d’une réduction du fonds de roulement
Exemple de projet :
« L'amélioration de la disponibilité d'une machine entraîne un stock
nécessaire plus faible pour cette machine et réduit ainsi le fonds de
roulement » :
 La machine XYZ est moins fiable et, par conséquent, a un temps de
disponibilité de 63%.
 Les machines similaires ont un taux de disponibilité > 75%.

84
 Le stock associé à la machine XYZ a une valeur de 540.000 €, dont 80%
sont situés en amont de la machine.
 L'amélioration de la fiabilité entraîne une réduction du stock nécessaire
pour la machine de 50%.
 Le WACC est de 10%.
a. Quelle est la valeur de la réduction des stocks ?
b. Que vaut l'EVA sur la première année ?
EVA d’un investissement évité
Exemple de projet :
« L'augmentation de la vitesse de production d'une presse d'impression
signifie que nous n'avons pas besoin d'acheter une nouvelle machine. »
 La vitesse du processus actuel est de 10 mètres / seconde.
 Les ventes devraient augmenter de 25% l'année prochaine.
 L'augmentation de la vitesse de 25% signifie que nous n'avons pas
besoin d'acheter la cinquième machine budgétisée.
 La production totale actuelle = 4 machines * 10m/s/machine = 40 m/s.
 25% d'augmentation de la vitesse de la machine = 10 m/s = 1 machine.
 1 machine coûte 500.000 €.
 Le WACC est de 10%.
Que vaut l'EVA sur la première année ?
SIPOC
Supplier Input Process Output Customer

Mettez les données de processus présentées ci-dessous dans les bonnes


colonnes du SIPOC copier, régler la machine sur copie, employé, original,
appuyer sur Start, mettre l’original sur la vitre, employé, papier, retirer
l’original de la vitre et la copie du tiroir d’impression, photocopieur.

85
86
PARTIE 2: MEASURE

Dans cette deuxième partie, on aborde la deuxième phase de l'approche


DMAIC : la phase de mesure.

Objectifs de la phase de mesure :

Définir le défaut et recueillir des informations de base sur la performance du


produit ou du processus. Préciser les objectifs d'amélioration. Utiliser un
système de mesure approprié.

Dans la phase de mesure, les étapes suivantes du plan en 12 étapes jouent


un rôle central :

1. Déterminer le Y et analyser le système de mesure


2. Performance de base
3. Objectif basé sur la performance de base

Après cette partie, vous serez en mesure de :

• Définir le Y projet mesurable


• Expliquer les différents types de données
• Dresser un plan de collecte des données
• Calculer une performance de base
• Définir le système de mesure
• Déterminer l'objectif d'amélioration

Après avoir terminé la phase de mesure, les éléments suivants sont livrés :

• Y Projet
• Plan de collecte de données
• Analyse du système de mesure
• Performance de base
• Objectif d'amélioration

87
88
CHAPITRE 3 : DETERMINER LE « Y » ET
ANALYSER LE SYSTEME DE MESURE
3.1 Introduction
Dans le dernier chapitre, nous avons décidé quel problème nous allions
résoudre et quel résultat de processus devait être amélioré (CTQ). Dans ce
premier chapitre de la phase de mesure, nous allons rendre ce résultat de
processus mesurable de manière univoque et déterminer quel système de
mesure nous allons utiliser pour mesurer les résultats du processus.

3.2 Du CTQ au Y de projet


Le Y de projet est le CTQ exprimé en tant qu'output mesurable du processus.
Le Y de projet est toujours quantitatif, mesurable, sans équivoque et
directement associé au processus. Dans les paragraphes suivants, nous
discuterons d'un certain nombre d'instruments qui peuvent être utilisés
pour déterminer un Y de projet approprié pour le projet.

• Diagramme arborescent (cascade CTQ)


• Description détaillée du processus
• L'analyse de Pareto
• QFD
Le choix de l'instrument dépend de la situation pratique. Par exemple,
lorsqu'il est décidé de travailler sur la réduction du nombre de plaintes, et
qu’il y a déjà un bon système d’enregistrement des plaintes en place, on
optera pour l'utilisation du Pareto (H3.2.3). Si on ne sait pas bien sur quoi
nous allons travailler et quel choix peut conduire à un avantage
concurrentiel, le QFD est un bon choix. Lorsque l’approche vise avant tout
l'amélioration de l'organisation du processus et que les étapes ne sont pas
logiques ou contiennent une grande quantité de gaspillages, il est plus
pratique d'utiliser la description détaillée du processus pour déterminer le Y.
S'il s'agit surtout d'un projet pas trop grand, avec un champ réalisable sur la
base du CTQ choisi, le diagramme arborescent est souvent la meilleure
méthode.

89
3.2.1 Diagramme arborescent
Le diagramme arborescent vous permet de subdiviser le CTQ en éléments
concrets plus petits. De cette façon, un objectif ou une idée générique est
ramené à un sous-objectif spécifique. Les étapes sont les suivantes :

1. Créer la bonne équipe ensemble.


2. Inscrire le CTQ au sommet de l'arbre.
3. Utiliser le brainstorming pour définir les groupes principaux / sous-
objectifs.
4. Analyser plus en détail chaque groupe principal.
5. Arrêter de détailler chaque niveau lorsque le niveau est
suffisamment détaillé pour pouvoir définir un Y potentiel. Souvent,
trois niveaux suffisent.
6. Evaluer si l'arborescence réalisée a une structure logique et est
complète.

Figure 3.0

90
3.2.2 Diagramme de processus détaillé
Dans la phase de définition, un SIPOC est abordé : un diagramme de
processus dans les grandes lignes. De façon similaire au diagramme
arborescent, on travaille du générique au spécifique. Pour faire un bon
diagramme de processus, vous avez besoin de l'expertise des personnes
impliquées dans le processus. Le diagramme de processus est un effort
d'équipe. En plus de l'expertise et de l'expérience des personnes impliquées,
il existe d'autres contributions qui peuvent être utilisées, comme les
manuels, les spécifications du produit ou des diagrammes de processus
existants. D'ailleurs, une Value Stream Map peut aussi être utilisée pour
obtenir un Y approprié ; une Value Stream Map est effectivement un
diagramme de processus détaillé auquel des informations supplémentaires
ont été ajoutées.
Organisez un brainstorming avec l'équipe pour créer un diagramme de
processus détaillé. Assurez-vous que le processus réel est décrit ; pas le
processus que vous pensez voir exister ou le processus tel qu'il devrait
exister.
Le diagramme de processus détaillé vous donne une vision sur la création du
produit ou service, et ainsi sur les exigences y afférentes sous la forme d'un
CTQ. Après la création du diagramme de processus détaillé, consultez votre
sponsor (avec l'équipe). Ensemble, vous sélectionnez une unité mesurable,
qui, en étant améliorée, conduira à un meilleur processus. Cela étend
encore le « champ » du processus, et met généralement l'accent sur l'output
mesurable (par exemple le délai de livraison) d'une ou de plusieurs étapes
du processus. Les autres étapes sont donc « hors champ ».

91
Figure 3.1
3.2.3 L'analyse de Pareto
L'analyse de Pareto est utilisée pour ordonner les facteurs en fonction de
leur importance (fréquence d’apparition). Cela donne un aperçu des
facteurs qui ont le plus d'impact. Dans l'analyse des causes et la séparation
entre les causes possibles et les causes premières de la phase d'analyse,
l'analyse de Pareto est aussi souvent utilisée. Une règle de base veut que
20% des causes soient responsables de 80% des conséquences. Ce principe
est connu comme étant le principe de Pareto, souvent désigné comme la
règle des « 80/20 ».
L'analyse de Pareto est illustrée graphiquement dans un diagramme de
Pareto : c'est un diagramme à barres descendant de gauche à droite dans
l'ordre des grandeurs. Le Pareto comprend les facteurs d’influence d'un
output donné, classés sur la base de leur impact sur cet output. Cet effet est
exprimé numériquement sur l'axe Y à gauche. Sur l'axe des Y à droite, on
indique le pourcentage cumulé des facteurs d'influence (de gauche à droite),
afin de visualiser directement l’intersection avec, par exemple, la barre des
80% (cumulés).

Une fois que le diagramme de Pareto a été établi, l'analyse peut


commencer. Souvent, il y a deux ou trois facteurs qui sont clairement
supérieurs aux autres et ces facteurs sont donc à traiter en priorité. Si c'est
moins clair, suivez les directives suivantes :

• Cherchez le point de basculement de la ligne des pourcentages


cumulés. Les facteurs en dessous de la partie la plus pentue de cette
ligne sont les plus importants.
• S'il n'y a pas de point de basculement clair, recherchez les facteurs qui
représentent au moins 60% du problème.
• Si les barres sont toutes de la même taille ou si plus de la moitié des
catégories sont nécessaires pour arriver à 60%, essayez d'utiliser une
répartition des catégories qui sera plus appropriée.
• Examinez aussi les différentes unités que vous utilisez dans le Pareto.
Par exemple, vous pouvez utiliser des nombres, comme cela a été fait à
la figure 3.2. Vous pouvez aussi par exemple utiliser des coûts.
92
Recherchez l'unité qui fournit le maximum d'informations sur votre
problème et essayez de rester aussi proche du CTQ que possible. Donc,
lorsque votre CTQ est le délai de livraison, utilisez le délai dans votre
diagramme de Pareto (au lieu des nombres).
• Pour les analyses des pannes, il est pour la même raison préférable de
ne pas reprendre les nombres de pannes dans le Pareto, mais plutôt les
minutes perdues. Vous pouvez y parvenir en multipliant le nombre de
pannes par la durée moyenne de cette panne en minutes.
La figure 3.2. indique comment vous passez de la voix du client
(amélioration du service) avec un diagramme de Pareto sur le CTQ (moins de
plaintes) à plusieurs thèmes autour des Y possibles, qui peuvent mener à un
Y comme l'écart par rapport à la température réglée dans les pièces.
Figure 3.2 Pareto Chart of Complaint
2500

100

2000

80

1500

Total 60

%
1000
40

500
20

0 0
Complaint Cockroaches Too cold Lighting Wardrobe Noise after 11 pm
TV reception Other
Total 962 505 350 127 97 83 101
Percent 43,2 22,7 15,7 5,7 4,4 3,7 4,5
Cum % 43,2 65,9 81,7 87,4 91,7 95,5 100,0

3.2.4 Quality Function Deployment


Le dernier instrument que nous allons aborder pour passer du CTQ au Y est
le Déploiement de la Fonction Qualité (QFD). Cette technique peut être
appliquée tout au long du cycle DMAIC et aide à traduire la voix du client en
CTQ dans la phase de définition, les CTQ en outputs de processus
93
mesurables (Y) dans la phase de mesure, les outputs de processus en
principaux facteurs d'influence sur les outputs (les X) dans la phase d'analyse
et les X des processus en contrôles de processus dans la phase de contrôle.
Dans le QFD, des liens sont toujours établis entre la cause et les
conséquences de l'input et de l'output. Le degré d'influence est quantifié sur
la base de facteurs de pondération.

Figure 3.3

Une version simplifiée du QFD est la matrice de priorité. Dans la phase de


mesure, le CTQ est traduit en Y de projet. Puisqu'il est possible de définir
plus d'un Y de projet par CTQ, il est important de les prioriser, ce qui peut
être fait à l'aide de la matrice de priorité (QFD simplifié).

Construction d’une matrice de priorité :

• Faites une liste de tous les Y projet (utilisez, par exemple, le diagramme
arborescent pour inventorier les Y).
• Déterminez les critères de sélection pour peser les Y :
o Associés au CTQ.
94
o Mesurabilité, facilité d'obtention des données.
o Impact sur l'organisation.
o Disponibilité des personnes.
o Coûts des écarts (coût de la mauvaise qualité).
• Déterminez les critères de pondération des différents Y.
Par exemple, en utilisant une échelle 1-3-5 pour peser la liaison entre le
Y et les critères de sélection.
• Additionnez les scores de chaque Y pour arriver à un score total.
• Classez les Y projet par ordre décroissant d'importance pour identifier le
Y le plus approprié.

Dans le tableau 3.0, un QFD est appliqué à la réduction de la consommation


de carburant:

Tableau 3.0
Y projet Directe- Prêt Impact sur Lié Total
ment dans les l’organisation au
mesurable 6 mois CTQ
Poids de la voiture 5 1 1 5 12
Résistance à l’air 1 1 1 5 8
Style de conduite 3 5 5 5 18
Frottements 3 3 5 5 16

Le style de conduite est avancé comme le Y avec le score le plus élevé sur les
critères, et donc comme le Y sur lequel il faudrait d'abord travailler. Outre la
matrice des priorités, il existe d'autres techniques qui peuvent être utilisées
pour classer les différents facteurs, comme la matrice de Pugh et l’AHP
(Analytical Hierarchical Process). Ces techniques seront abordées au
chapitre 8.3.

3.2.5 Champ et Y de projet


Les techniques décrites ci-dessus aident à sélectionner le Y du projet. Le Y
projet oriente le projet d'amélioration et détermine le champ. Il est
important de le choisir soigneusement. Lors du choix, tenez compte des
éléments suivants :
95
• Le projet peut-il être réalisé dans un délai raisonnable (6 mois) ? Si ce
n'est pas le cas, subdivisez-le en plusieurs projets.
• Quelles sont les expertises et les ressources nécessaires pour arriver à
une solution ? Sont-elles disponibles ?
• Existe-t-il des obstacles à ce projet ?
• Les ressources, comme les équipements spéciaux, les machines et les
infrastructures, sont-elles disponibles ?
• Peut-on obtenir des données pour quantifier le Y ?

Toutes ces facettes sont déterminantes pour la faisabilité du projet


d'amélioration, vu le Y choisi. Dans certains cas, un second Y est repris dans
le projet d'amélioration. Il ne devrait pas y en avoir plus. Si c'est le cas, il est
recommandé de diviser le projet en plusieurs projets d'amélioration afin de
maintenir les priorités et de garder le contrôle sur la complexité.

3.3 Collecter les données


Maintenant que le Y projet a été défini, l'étape suivante consiste à mesurer
la performance actuelle du Y. Lean Six Sigma est une méthode basée sur les
données. Des données devront être recueillies pour être en mesure de
prendre des décisions fondées sur des faits :

Je pense que le problème est ...


Devient:

Les données démontrent que le problème est ...


Nous allons aborder dans ce paragraphe la collecte de données. Celle-ci doit
être assurée d'une manière structurée, afin de s'assurer que les données
sont actuelles, non ambiguës et précises. L'instrument utilisé à cet effet est
le plan de collecte des données.

96
3.3.1 Plan de collecte de données
Le plan de collecte de données est un plan qui prévoit ce qui sera mesuré,
comment ce sera mesuré et par qui. Le format du plan de collecte de
données peut être utilisé tout au long du cycle DMAIC :

Measure Pour collecter des données sur le Y projet et les facteurs


(Mesurer) : (de stratification) afin de déterminer la performance de
base et le mandat.
Analyse Pour collecter des données sur le Y projet et les X
(Analyser) : potentiels pour identifier les causes premières qui
influencent le Y.
Improve Pour collecter des données sur les expériences des
(Améliorer) : améliorations de processus et les projets pilotes, afin
d’arriver à la meilleure solution.
Control Pour collecter des données après la mise en œuvre de la
(Contrôler) : solution, pour pouvoir démontrer qu'il y a eu une
amélioration.
La collecte de données doit être motivée et suffisamment précise : elles
soutiennent des décisions cruciales. Avant de commencer la collecte de
données, il est donc sage de parcourir la checklist suivante :
• L'objectif est-il clairement décrit ?
• Qui est responsable de la collecte des données et des mesures ?
• Les personnes impliquées ont-elles été informées, a-t-on expliqué de
quoi il s'agit ?
• Une formation est-elle nécessaire ?
• Toutes les sources de données potentielles ont-elles été identifiées ?
• Quels sont les types de données qui seront collectées ?
• Les points de collecte des données sont-ils mis en place ? Les checklists,
etc. sont-elles en place ?
• De quoi se compose le système de mesure et dans quelle mesure est-il
fiable ?
• Est-ce qu’une structure a été créée pour organiser, représenter et
résumer les données ?
97
La plupart de ces points sont avancés dans le plan de collecte des données.
Veillez en particulier à bien tout expliquer aux personnes concernées, afin
d’éviter qu’elles ne deviennent suspicieuses suite à la collecte des données.
Pour certaines mesures, il va falloir former des personnes. Dans de
nombreux autres cas, vous devrez surtout bien expliquer comment les
données doivent être collectées, pour éviter que l'on travaille de différentes
façons.

Souvent, il existe diverses sources qui contiennent des données historiques


utiles. Commencez toujours par l'identification de ces sources afin de
vérifier si des données utiles sont déjà disponibles. Sources historiques
possibles :

• Interviews
• Etudes
• « Work Order Travelers » (documents qui voyagent, comme les ordres
de commande)
• Feuilles de données
• Cartes de contrôle
• Fichiers personnels
• Fichiers de données, rapports du système ERP

Si des données supplémentaires sont nécessaires pour déterminer la valeur


actuelle de l'output du processus Y, un plan de collecte de données est mis
en place pour collecter activement de nouvelles données. Voici un exemple
de plan de collecte des données. Les questions suivantes occupent une place
centrale dans le plan de collecte des données :

• Pourquoi fait-on les mesures ?


• Que mesure-t-on ?
• Comment mesure-t-on ?
• Qui fait les mesures ?

98
Figure 3.4

3.3.1.1 Plan de collecte des données : pourquoi


mesure-t-on ?
Indiquez brièvement dans le plan de collecte de données quel est le but de
la mesure. Indiquez pour quel Y la mesure est réalisée ; à quels processus et
inputs la mesure se rapporte et quel est l'objectif visé de la mesure.

Dans la phase de mesure, le but est de déterminer une « prestation de


base » du processus. La prestation de base est la mesure d'origine du
processus lié au Y. C'est le point de départ pour l'amélioration. La prestation
de base est traitée comme le résultat de la mesure au chapitre 4. Par
ailleurs, il peut s'agir d'un objectif pour vérifier à l'aide de la collecte des
données quelle est la meilleure prestation au cours d'une certaine période
ou pour un certain sous-groupe (« best case »). Sur la base de ce meilleur
résultat, l'objectif du projet peut être affiné et exprimé en une valeur cible
pour Y, que l'on appelle aussi « entitlement » (cf. aussi le chapitre 5).

3.3.1.2 Plan de collecte des données : que mesure-


t-on ?
Lors de la rédaction d'un plan de collecte de données, on vise déjà la phase
d'analyse. La collecte de données peut être un processus coûteux, tant en

99
termes de temps que d'argent. Il est donc bon de recueillir plus de données
que celles nécessaires pour Y. Les influences possibles sur le Y sous la forme
de X d'input (par exemple les matières premières, les formulaires de
demande), de X de processus (ex. boutons de la machine ou les réglages
dans le processus) et de X de stratification (cf. ci-dessous) peuvent déjà être
reprises à ce stade. Le diagramme arborescent, le diagramme de processus
et le QFD peuvent être utilisés à cette fin. Le diagramme « cause & effet »
est une autre technique qui peut être utilisée pour identifier des X. Cette
technique est décrite dans le chapitre 6.
Les X de stratification sont des facteurs qui permettent d'identifier des sous-
groupes qui varient en fonction de leur performance. Par exemple, les
résultats globaux des ventes sur une période donnée peuvent être répartis
en fonction de la saison. Lorsque vous vendez des patins à glace ou des
décorations de Noël, la « saison » sera donc un facteur de stratification.

Dans le plan de collecte de données, il y a 3 éléments qui composent le


« quoi » du plan de collecte des données :
• La définition opérationnelle
• Le type de résultat de mesure
• Le type de données
La définition opérationnelle
La définition opérationnelle donne une signification transmissible à un
concept en indiquant clairement comment un concept est mesuré et
appliqué dans certaines circonstances (Deming).

Une définition opérationnelle contient les éléments suivants :

1. Standard : norme à laquelle le résultat d'un test est comparé.


2. Procédure pour mesurer une caractéristique.
3. Décision : déterminer si la caractéristique du résultat du test est
conforme au standard ou non.

Voici ci-dessous, à titre d'exemple, le concept de « service rapide » pour une


pharmacie :
100
Standard : le médicament est distribué au comptoir pas plus de 10 minutes
après la remise de l'ordonnance à la pharmacie.

Test : le temps nécessaire pour traiter une ordonnance et la remettre au


client, à l'aide d'un chronomètre.

Décision : quand il ne faut pas plus de 10 minutes pour remettre le


médicament après la réception de la prescription, on satisfait au standard et
le service de la pharmacie peut être décrit comme étant « rapide ».

Type de résultat de mesure

Le résultat de mesure peut porter sur le Y d'output et sur les facteurs dans le
processus : les X de processus (ex. les boutons ou les paramètres), les X
d'input du processus (ex. matières premières, demandes), ou les X de
stratification. L'output est traité dans ce chapitre. Dans les chapitres
suivants, les X vont jouer un rôle central quand il sera question des
possibilités d'amélioration. Dans ce paragraphe, nous discutons brièvement
des X de stratification :

Les X de stratification divisent les données collectées en sous-groupes.


Souvent, ce sont des facteurs qui fournissent une réponse aux questions
suivantes :

Quel type Par exemple : type de plaintes, type de défauts, type de


problèmes
Quand Par exemple : année, mois, semaine, jour
Où Par exemple : pays, région, ville, lieu de travail
Qui Par exemple : entreprise, département, individu

Lors de la division des données en sous-groupes, il est important que les


différences entre les groupes soient les plus grandes possible et que les
différences au sein des groupes soient les plus petites possible. Les
différents facteurs des groupes doivent s'exclure mutuellement et former un
tout.
101
Figure 3.5

La stratification permet de rechercher les différences de performance entre


les groupes ou les périodes, afin de déterminer le meilleur des cas ou
d'expliquer un défaut. En outre, la stratification donne une vision sur la
performance du processus en ce qui concerne :

• La variation à long terme ou « overall variation » : en cas de variation à


long terme, il ne faut pas uniquement penser au « temps ». La variation
LT est la variation de l'ensemble du processus, tous les sous-groupes
confondus. Supposons que la variation du délai de livraison aux Pays-
Bas puisse être divisée en cinq régions (nord, est, sud, ouest et centre).
Si la variation est la plus petite dans la région centrale, on pourrait la
considérer comme la meilleure performance (à court terme ou « within
variation »). La variation des 5 régions ensemble serait alors « l'overall
variation » (elle est normalement supérieure à la « within variation » ou
à court terme).

102
Figure 3.6
Types de données

Dans la figure 3.6, les différents types de données sont représentés de


manière schématique. De bas en haut, les types de données deviennent plus
riches en informations. Lors de la collecte des données, les données
continues sont les plus précieuses. Dans la pratique, nous traitons les
données avec au moins 10 possibilités comme des données continues
(parfois déjà à partir de 8).
Le tableau 3.1 illustre les principales caractéristiques par type.
Différence/
principale

Intervalle
Catégorie

Moyenne

Médiane
rapport
Ordre

Mode
Type

Continu Continu Infini     


Discret Comptag Fixe, égal     
e
Discret Ordinal      
Discret Nominal      
Discret Binaire      
Tableau 3.1
103
Lors de la formulation de la question centrale pour collecter des données, il
est important de réfléchir à la façon de la formuler. La question détermine la
valeur de l'information que vous allez recueillir.
Par exemple :
« Est-ce que l’avant-centre marque au cours de la saison » ou « Combien de
fois l’avant-centre marque-t-il au cours de la saison ? »
Ces deux questions se traduiront par des réponses différentes. La première
réponse (oui ou non) est binaire (donc données discrètes). La seconde
réponse est une somme et contient plus d'informations. La réponse à la
première question comprend donc trois parties. La définition
opérationnelle, le type de résultat de mesure et le type de données
indiquent ce qui est mesuré selon le plan de collecte de données.

3.3.1.3 Plan de collecte des données : comment


mesure-t-on ?
Maintenant que nous savons ce qui sera mesuré et quel type de données
nous cherchons, la question suivante est de savoir comment mesurer. Les
éléments suivants sont importants à ce niveau :

• L’ instrument de mesure
• La résolution
• La population de mesure ou son échantillon
Instrument de mesure
Les instruments de mesure sont disponibles dans différents types et tailles.
Un chronomètre pour mesurer le temps, l'observation afin de déterminer
combien de personnes sont dans une file d'attente à la caisse d’un
supermarché, ou un lecteur de codes barres pour déterminer combien
d'éléments d'un produit ont été vendus. Le type d'instrument de mesure
dépend beaucoup de ce que vous voulez mesurer. Dans le cas des services,
les gens comptent souvent combien de fois quelque chose se produit. Dans
ce cas, la personne qui fait le décompte est notre « instrument de mesure ».
104
Si nous avons une base de données d’où nous obtenons nos informations à
travers des requêtes, vous pouvez considérer la requête qui est faite comme
notre instrument de mesure.

Résolution de mesure
La résolution de mesure est la précision avec laquelle un instrument de
mesure effectue la mesure. Pour mesurer le temps lors d'un marathon, les
minutes et les secondes seront suffisamment précises, tandis que pour le
100 mètres, même le centième de seconde peut parfois ne pas être assez
précis. La précision qui est nécessaire est étroitement liée à l'objectif à
atteindre à l'aide de la mesure. La règle de base qui est utilisée est que
l'instrument de mesure que vous utilisez doit être capable de diviser le sujet
que vous mesurez en au moins 10 sections distinctes. Soit : si vous voulez
mesurer quelque chose en mètres, l'instrument de mesure doit pouvoir
mesurer en décimètres (ou centimètres). C'est ce qu'on appelle la « règle
des 10 seaux ».
Echantillon
Pour être en mesure de tirer des conclusions à partir d'une mesure, il n'est
pas nécessaire de mesurer l'ensemble de la population. Souvent, un
échantillon suffit pour dire quelque chose à propos de la population dans
son ensemble. L'échantillon d'une population est défini comme suit :

Une collecte partielle ou une partie qui est représentative d'une population
plus importante, qui peut être étudiée dans le but de se former une opinion
et de prendre des décisions qui sont fondées sur des faits.

Les raisons d’utiliser un échantillon et de ne pas mesurer l'ensemble de la


population peuvent être diverses :

• Il n'est souvent pas pratique de collecter des données sur l'ensemble de


la population (poser une question aux 17 millions d’habitants aux Pays-
Bas peut prendre un certain temps).
• Certaines méthodes de test sont destructrices (par exemple mesurer le
nombre de décibels d’un feu d'artifice).
105
• Il est trop coûteux de mesurer l'ensemble de la population.
• Il n'est tout simplement pas nécessaire de mesurer l'ensemble de la
population parce que les statistiques peuvent être utilisées pour faire
des constats fiables.

Les éventuelles différences (« sampling error ») entre le résultat de la


mesure sur la base de l'échantillon et la réalité dans l'ensemble de la
population peuvent être causées par :

Une erreur fortuite : il y a beaucoup d'observations atypiques ou extrêmes


dans l'échantillon, par exemple ce qu'on appelle les valeurs aberrantes
(utiliser un échantillon plus large en réduit l'effet).

Une erreur systématique (ou biais de l'échantillon) : l'échantillon n'est pas


bien choisi. Par exemple envoyer systématiquement un questionnaire au
numéro de maison 1 d'un certain nombre de rues. Le numéro 1 n'est
probablement pas caractéristique de toute la rue, et n'est donc pas un bon
échantillonnage. Un échantillon doit être bien pensé et prévu pour garantir
sa fiabilité. En d'autres termes, il doit être représentatif.
Fréquence et taille d’échantillon
Pour réaliser l'objectif d'une mesure, la détermination correcte de
l'échantillon est d'une importance cruciale. Lors de la mesure d'un
processus, il est important de mesurer assez souvent (fréquence) pour
pouvoir détecter un changement de « bon » à « mauvais ». En outre, la
période doit être suffisamment longue pour voir la variation à long terme du
processus. Si, par exemple, il faut plus de temps en été pour recevoir une
offre pour un prêt, il est important de ne pas mesurer uniquement en février
et mars.

Il est recommandé d'effectuer divers petits échantillons à différents points


dans le temps. Dans le cas où le processus est instable, les échantillons
doivent être pris plus souvent que lorsque le processus est stable.

Le tableau 3.2 illustre un certain nombre de lignes directrices de base pour


déterminer la taille de l'échantillon. En règle générale, nous utilisons
106
souvent pour commencer un échantillon de 30. Ce nombre est alors corrigé
plus tard.

Tableau 3.2

Que voulez-vous savoir sur la Taille d’échantillon minimale


population ? recommandée
Valeur moyenne d’une population 5
Ecart-type d’une population 25
Proportion défectueuse (P) dans 30
une population
Fréquences de valeurs dans 50
différentes catégories
(d’histogramme ou de diagramme
de Pareto)
Relation entre les variables 25
(comme dans un diagramme de
dispersion ou de corrélation)
Stabilité dans le temps 25
Pour déterminer la taille d'un échantillon, le programme Minitab peut être
utilisé. Il en sera question plus loin.
Planification d’échantillon

Pour sélectionner un échantillon fiable, chaque unité de la population doit


avoir une chance égale d'être incluse dans l'échantillon. C'est ce que l'on
appelle un échantillonnage aléatoire (ou random). Le tableau de la page
suivante illustre les types d'échantillonnage aléatoire possibles.

Purement - Au sens figuré : mettre l'ensemble de la


aléatoire population dans un chapeau et sélectionner des
éléments individuels au hasard en les tirant du
chapeau.
- Exemple : sélectionnez 100 questions clientèle au
hasard parmi les 5000 questions qui ont été
posées ce mois-ci.

107
Aléatoire - Sélectionnez chaque n-ième individu de la
systématique population (en supposant que la population est
ordonnée d'une manière qui n'est pas liée à ce
que vous mesurez).
- Exemple : sélectionnez toutes les 50e questions
client des 5000 questions qui ont été posées ce
mois-ci.

Aléatoire - Si la population a des sous-groupes qui sont liés à


stratifié ce que vous mesurez, sélectionnez un certain
nombre au hasard dans chaque sous-groupe ;
sélectionnez-en plus dans les grands sous-groupes
et moins dans les petits.
- Exemple : vu que l’on a 35% de questions liées au
logiciel, 40% au matériel et 25% d’autres
questions, sélectionnez au hasard 35 questions
liées au logiciel, 40 questions liées au matériel et
25 autres questions.

3.3.1.4 Plan de collecte de données : qui mesure ?


Le quoi et le comment des mesures ont maintenant été déterminés. La
dernière question qui doit être posée est : qui mesure ?
La précision de la mesure dépend généralement de qui conduit les mesures.
Pour s'assurer que la mesure est effectuée correctement, des règles claires
doivent être établies avec les personnes qui collectent les données. Elles ont
besoin de connaître dans les détails l'objectif et l'importance de la mesure,
et la façon dont elle doit être effectuée. Le calibrage des instruments de
mesure est aussi extrêmement important. Les personnes qui collectent les
données doivent être au courant des éventuelles prescriptions sur la façon
et le moment de l'étalonnage. Dans certains cas, une formation sera
nécessaire pour s'assurer que la mesure soit effectuée conformément aux
exigences.
Dans le paragraphe suivant, nous regardons de plus près le système de
mesure utilisé pour mesurer le Y. Vu que c'est l'output sur lequel nous

108
fondons le projet d'amélioration, avoir un système de mesure précis est
important. Cela peut être déterminé par l'analyse du système de mesure.

3.4 Analyse du système de mesure (MSA)


Avant de mesurer la performance de base du Y que nous avons choisi, nous
devons d'abord examiner le système de mesure. Le processus utilisé pour
déterminer la variation du système de mesure est appelé « analyse du
système de mesure » ou MSA (Measurement System Analysis). C'est un
système de mesure qui répond à deux questions fondamentales :

• Est-ce que la variation du système de mesure est trop grande pour


réussir le projet ?
• Qu'est-ce qui doit être fait pour s'assurer que le système de mesure soit
adéquat pour le projet ?

Figure 3.7
Un bon système de mesure est crucial pour un projet réussi. Ne pas réfléchir
suffisamment au système de mesure peut être un piège. Ne poursuivez pas
le projet tant que vous n’êtes pas certain d'avoir un système de mesure
adéquat. Dans un environnement industriel, vous pourriez souhaiter réaliser
un projet DMAIC distinct pour obtenir une bonne mesure, ce qui en soi peut

109
conduire à une amélioration importante du processus et permet de réaliser
d'autres projets d'amélioration qui dépendent de cette mesure.

La MSA comporte les étapes suivantes :

1. Identifier les sources possibles de variation des mesures.


2. Choisir le bon instrument pour quantifier la variation du système de
mesure.
3. Comparer l'ampleur de la variation de la mesure à ce qui est requis pour
votre projet.
4. Si nécessaire, réparer le système de mesure pour réduire les variations.

Dans la figure 3.8, les différents types de variation sont représentés. Ces
types seront plus amplement commentés dans les paragraphes suivants.

Figure 3.8

Les différents types sont analysés point par point pour déterminer si le
système de mesure sélectionné est acceptable pour la mise en œuvre de la
mesure ou non. La figure 3.9 donne une représentation schématique de
cette feuille de route :

Figure 3.9
110
3.4.1 Résolution, exactitude, stabilité et linéarité
Résolution

Au point 3.3.1.3, nous avons discuté de la résolution. C'est là que la « règle


des 10 seaux » s'applique.

Exactitude

L’exactitude indique dans quelle mesure les mesures réalisées


correspondent en moyenne à la valeur réelle. Normalement, la réalité est
déterminée en utilisant le matériel disponible le plus précis ou en utilisant
des valeurs standard. Par exemple, l’exactitude de votre montre peut être
comparée à une horloge atomique. La déviation de la mesure par rapport à
la réalité est appelée le biais (voir figure 3.11). Ce biais peut être causé par
l'opérateur qui commande l'instrument de mesure ou par l'instrument qui
présente un certain écart dans une direction. L’exactitude est un CTQ de
l'instrument de mesure. La procédure suivante peut être utilisée pour tester
la précision :

111
1. Sélectionnez au moins 3 échantillons standard avec des valeurs connues
qui se situent dans la zone qui se produit fréquemment en pratique.
2. Utilisez la méthode de mesure pour obtenir plusieurs mesures.
3. Calculez les différences entre les mesures et les valeurs réelles.
4. Tracez les différences (axe Y) vs les valeurs « réelles » (axe X).
5. Evaluez la précision : lorsque la mesure est exacte, la valeur sera
distribuée au hasard le long de la ligne horizontale (Y = 0).

Stabilité

L'instrument de mesure doit également être stable dans le temps. Un


instrument de mesure stable donne des résultats cohérents sur une plus
longue période de temps. Un instrument de mesure qui est utilisé à un
moment 1 doit être aussi précis au moment 2. Dans le cas de la montre,
l'écart par rapport à l'horloge atomique doit être le même aujourd'hui et le
mois dernier. Avec les montres, ce n'est souvent pas le cas. Pour un
instrument de mesure qui sert à mesurer une amélioration, la stabilité est
d'une importance cruciale, car le Y qui est mesuré après l'amélioration est
comparé à la performance de base.

La procédure suivante peut être utilisée pour tester la stabilité :

1. Sélectionnez un seul échantillon standard qui reste « stable » au fil du


temps.
2. Mesurez l'échantillon chaque jour pendant plusieurs jours (de
préférence 30 jours ou plus).
3. Portez les mesures (axe Y) en fonction du temps (axe X).
4. Evaluez la stabilité : l'absence de tendances claires ou aberrantes sur le
diagramme suggère que l’instrument de mesure est stable.

Linéarité

Un système de mesure est linéaire lorsque l’exactitude est constante sur


tout le spectre de valeurs possibles. Dans le cas d'un compteur kilométrique
d'une voiture, cela signifierait que l'écart du compteur est d’env. 2 km/h à
112
30 km/h ainsi qu'à 140 km/h. Dans la pratique, ce n'est pas le cas avec le
compteur kilométrique. Si un système de mesure n'est pas linéaire, les
résultats ne peuvent être comparés correctement pour des mesures de
tailles différentes. La figure 3.10 fournit un certain nombre d'exemples
pratiques d’exactitude par rapport au spectre.

Figure 3.10

Dans un souci de qualité, un système de mesure doit être linéaire. La


procédure suivante peut être utilisée pour tester la linéarité :

1. Sélectionnez « x » échantillons standard avec des valeurs « connues » à


travers le spectre des valeurs « typiques ».
2. Réalisez les mesures pour déterminer la valeur de chaque échantillon.
3. Calculez la différence entre les mesures et les valeurs « réelles ».
4. Tracez les différences (axe Y) par rapport aux valeurs « réelles » (axe X).
5. Evaluez la linéarité : l'absence de tendances claires sur le diagramme
suggère que la mesure est linéaire.

113
Correction de l’exactitude, de la stabilité et de la linéarité des instruments
de mesure

Le calibrage de l'instrument de mesure est la méthode utilisée pour corriger


l’exactitude, la stabilité et la linéarité. Lors du calibrage d'instruments de
mesure, l'écart (biais) de l'appareil de mesure est déterminé. On peut pour
cela effectuer une comparaison avec une référence ou un modèle calculé.
Les déviations sont enregistrées dans un tableau de correction. En cas de
traitement numérique des mesures, les valeurs de correction peuvent être
déduites des valeurs mesurées afin d’assurer un résultat précis. En variante,
l'instrument de mesure peut être réglé pour corriger l'écart. Sur la base du
calibrage, on peut déterminer si l'instrument de mesure correspond
toujours à ses spécifications. En cas d'utilisation de références, elles doivent
être d'une certaine qualité pour s'assurer que les ajustements sont assurés
de manière appropriée.

3.4.2 Précision
La dernière étape de l'analyse du système de mesure consiste à déterminer
la précision de l'instrument de mesure (« Gage »). A cette étape, la
reproductibilité et la répétabilité de la mesure jouent un rôle central. En
anglais, on parle de Repeatability et de Reproducibility (R&R). La répétabilité
est aussi qualifiée de « fiabilité » dans certaines sources.

Une mesure est répétable lorsque le même échantillon mesuré par le même
opérateur, dans les mêmes conditions, donne au cours de la répétition de la
mesure le même résultat que la première mesure.

Une mesure est reproductible quand une deuxième personne obtient le


même résultat de mesure que la première personne.

Un bon système de mesure est à la fois reproductible et répétable. La


variation (exprimée en tant que variance) qui est imputée à la précision doit
être calculée sur la base des variances des composants.

&

= é

é  é + 

   é
114
La figure 3.11 illustre la différence entre la répétabilité et l’exactitude.
Figure 3.11

Meilleure répétabilité Meilleure exactitude


Moins bonne exactitude Moins bonne répétabilité
Une mauvaise précision (ou « validité ») peut être causée par un instrument
de mesure qui présente un écart constant, comme une balance qui n'est pas
bien réglée sur 0 ou un compas avec une bavure. Dans les services, elle peut
apparaître si on enregistre toujours un document entrant le lendemain au
lieu du jour même. Dans certaines sources, la précision est aussi dénommée
« valide ».
Une mauvaise répétabilité (parfois appelée « fiabilité » peut être due à
plusieurs causes :
L'équipement - L'instrument nécessite un entretien.
- L’instrument de mesure est instable.
Opération - Conditions environnementales (lumière, bruit).
humaine - Conditions physiques (yeux).
Une mauvaise reproductibilité peut être causée par les éléments suivants :
Procédure - La procédure de mesure ou de lecture n'a pas été
clairement définie.
- La définition opérationnelle (comment mesurer ou
enregistrer) n'est pas claire (ou sans équivoque) (en
particulier dans le cas d'applications
transactionnelles).
Opération - Formation insuffisante à l'utilisation et à la lecture de

115
humaine l'instrument de mesure, ou à l'enregistrement des
moments d'une autre manière.

3.4.3 Jauge de R&R


La jauge de R&R est une méthode statistique destinée à tester le système de
mesure en vue d'assurer la prévision de la mesure. La jauge peut être
traduite en instrument de mesure, tandis que R&R fait référence à la
répétabilité et à la reproductibilité. Les variations dans les mesures peuvent
être d'origine humaine ou être provoquées par un système de mesure
défectueux. En préparation de la jauge de R&R, l'instrument de mesure est
si possible d'abord calibré pour s'assurer qu’il est exact, linéaire et stable.

3.4.3.1 Jauge R&R pour les variables continues


Une jauge R&R pour les variables continues comporte les étapes suivantes :

1. Faire un plan de collecte de données pour analyser le système de


mesure.
2. Collecter les données.
3. Calculer et analyser.
4. Corriger le système de mesure si nécessaire.

1. Faire un plan de collecte de données pour analyser le système de


mesure

Suivez les étapes suivantes pour faire un plan de collecte de données afin
d'analyser le système de mesure :

• Sélectionnez différents éléments que vous allez mesurer dans l'étude.


Ces éléments doivent représenter les résultats typiques des valeurs de
processus (échantillon aléatoire). Au moins 5 éléments sont
nécessaires, de préférence répartis sur la portée de mesure qui est
trouvée dans la pratique ou que vous voulez analyser. Souvent, 10
éléments sont utilisés, s'ils sont disponibles.

116
• Sélectionnez au moins deux opérateurs qui feront chacun plusieurs
mesures pour chaque élément.
Il doit s'agir d'opérateurs qui réalisent normalement ces mesures. Les
opérateurs qui effectuent ces mesures participent de préférence à
l'étude.
• Déterminez combien de mesures (répétitions) chaque opérateur fera.
• Au moins deux mesures de chaque élément pour chaque opérateur. En
outre,la formule suivante est utilisée pour déterminer le nombre de
mesures∶

#éé × # !é"#$" × %#$" / !é"#$" / éé' > 30

2. Collecter les données

Ensuite, les mesures sont réalisées et les données collectées :

• Laissez le premier opérateur mesurer tous les éléments une fois dans
un ordre aléatoire.
• Assurez-vous que les autres opérateurs ne voient pas les résultats du
premier opérateur.
• Laissez le deuxième opérateur mesurer tous les éléments une fois dans
un ordre aléatoire.
• Continuez jusqu'à ce que tous les opérateurs aient mesuré tous les
éléments : l'essai 1 est terminé.
• Répétez les étapes précédentes pour toutes les répétitions souhaitées
(répéter au moins une fois, de préférence avec au moins un jour
d'intervalle).
• Assurez-vous que les éléments ne soient pas reconnaissables pour les
opérateurs (à tour de rôle).

117
3. Calcul et analyse

Créez une feuille de calcul dans Minitab (Stat > Quality Tools > create Gage
R&R worksheet) pour entrer les données obtenues à l'étape précédente. Les
titres des colonnes suivants peuvent être utilisés :

• Code d’identification de l’élément (« part »)


• Opérateur (« name »)
• Résultat de mesure
Entrez les données obtenues à l'étape 2 dans la feuille de calcul et effectuez
les calculs dans Minitab :
Minitab: Stat -> Quality Tools -> Gage R&R Study (Crossed)
Exemple
Dans l'exemple, nous voulons mesurer une unité Y d'une pièce qui a une
spécification de 20 à 100 unités, avec un objectif de 60. Dix éléments ont été
sélectionnés et seront mesurés par 3 opérateurs. Chaque opérateur a
effectué les mesures à deux reprises. Le résultat est affiché dans la feuille de
calcul ci-dessous (Figure 3.12). Cette feuille de calcul s'intitule « Gage R&R
Continuous.mtw ».

Figure 3.12
118
Allez dans Minitab: Stat -> Quality Tools -> Gage Study -> Gage R&R
(Crossed)
Figure 3.13

ANOVA est préférée en tant que méthode d'analyse, car elle calcule aussi
les éventuelles interactions. Ensuite, allez dans « Options ».

Figure 3.14

119
Complétez la tolérance (=USL-LSL) ou la spéc. sup. et inf. Laissez 6 dans
« Study variation » (ce qui signifie que nous voulons inclure 99,7% de la
variation de la mesure à l'étude. Si nous préférons 99% de la variation, nous
fixons le nombre à 5,15 écarts-types).

Résultat :
Tableau 3.4

Explication des résultats :

Terme : Explication :
Total jauge R&R Il s'agit de la variation totale due à la
répétabilité et la reproductibilité.
Répétabilité La variation due à la répétabilité.
Reproductibilité La variation due à la reproductibilité.
Opérateur La variation due aux différences entre
120
opérateurs.
Pièce à pièce Variation réelle due aux pièces.
Variation totale La variation totale observée dans
l'ensemble de l'étude (les pièces + le
système de mesure).
VarComp La colonne exprimant la variation en
termes de variance des composants.
%Contribution (ou La contribution en % de la variance
VarComp) susmentionnée des composants.
Variation de l'étude Les composants de la variation de l'étude,
(study variation) cette fois exprimés en termes d'écarts-
types, pas de variance.
%Tolérance (SV/Toler) 6 fois l’écart-type, divisé par les tolérances
indiquées.

Afin de déterminer si le système de mesure est assez bon pour la mesure ou


non, les critères suivants sont utilisés :

Le nombre de catégories distinguables

Le nombre d'éléments uniques que le système de mesure peut distinguer à


travers la zone de mesure. Plus ce nombre est élevé, mieux c’est.

% contribution

Le pourcentage de la variation totale de Y qui peut être attribué à la mesure.


Plus ce pourcentage est faible, meilleur est le système de mesure. Dans la
formule :

.#",#/ $" &



+ ",-$,  = × 100% = × 100%
.#",#/ -".é  # 2

121
Figure 3.15

% tolérance

L'intervalle Six Sigma de la mesure, exprimée en pourcentage de l’intervalle


de spécification de Y (USL-LSL). Ceci indique quelle part de l'intervalle de
spécification (range) est utilisée par la variation dans le système de mesure.
Ici aussi, plus le pourcentage est faible, mieux c’est. Dans la formule :
456&6
3 "#/ =
789:989

Figure 3.16

122
Le tableau présenté ci-dessous donne les lignes directrices pour évaluer le
système de mesure sur la base des critères mentionnés ci-dessus. Évaluez
les lignes directrices dans le contexte de votre projet et de votre processus :

Niveau % % Nombre de Action proposée


feu stop contribution Tolérance catégories à
distinguer
Améliorez le système
Chimie> 30% de mesure avant de
Rouge >30% <5 poursuivre le projet
Pièces > 10%
Chimie: Envisagez d'améliorer le
Orange 4-30% système de mesure
10-30% 5-10 tout en continuant le
Pièces : 4-10%
projet
Le système de mesure
est adéquat. Poursuivez
Vert <4% <10% >10
le projet

Tableau 3.5

Puisqu'il est plus facile de faire des mesures précises de pièces physiques
plutôt que de flux continus, et puisque la marge d'erreur est généralement
plus critique dans le cas des pièces physiques, une distinction est faite entre
la mesure des processus chimiques et la mesure des pièces.

A propos de la Contribution et de la Tolérance :


La tolérance peut être artificiellement influencée par une large spécification,
ou la tolérance peut être déraisonnablement mauvaise quand les clients
donnent une spécification trop étroite au regard de votre appareil de
mesure. La tolérance qui en résulte en dit plus sur la spécification que sur
l'appareil de mesure et sa variation.

La contribution peut être influencée artificiellement, soit en choisissant des


pièces avec une distribution (trop) grande (par rapport à ce que vous faites
normalement). Dans ce cas, la contribution (qui est exprimée en
pourcentage du total, et donc aussi la variation pièce à pièce) est
relativement faible, et en conséquence, votre instrument de mesure semble
123
bon. D'autre part, vous pouvez également choisir des pièces ayant une faible
distribution, ce qui donnera l'impression que votre instrument de mesure
n'est pas assez bon, parce que la contribution de l'instrument de mesure
sera relativement importante en raison de la faible distribution choisie entre
les pièces. Cela peut être utilisé pour sensibiliser l'organisation à porter un
regard critique sur les instruments de mesure.

Figure 3.17

Interpréter les graphiques

• Composants de la variation : la variation de pièce à pièce doit être


l'élément dominant. La répétabilité et la reproductibilité ne doivent pas
être la principale source de variation. Leur total doit être inférieur à
10% (pièces) ou 30% (chimie).
• R-Chart by Operator : différence entre la mesure par pièce la plus haute
et la plus basse mesurée par un opérateur.
• X-bar Chart by Operator : la valeur moyenne des mesures par pièce par
un opérateur.
124
• Measurements by partID : il doit y avoir une différence entre les pièces.
Les points par pièce doivent être rapprochés. Il ne doit pas y avoir de
valeurs aberrantes.
• Measurements by Operator : répartition des mesures par opérateur. Il
doit y avoir une tendance similaire. Attention aux valeurs aberrantes.
• PartID x Operator Interaction: les tendances d’interactions opérateur-
pièce doivent se chevaucher.

Dans l'exemple donné, nous constatons une répartition beaucoup trop


importante suite au système de mesure (87,95%). La variation pièce à pièce
n'est donc que de 12,05%.

La majeure partie des 87,95% concerne la répétabilité, tandis que 5%


seulement concernent la reproductibilité. Les opérateurs s'en sortent donc
relativement bien ou du moins de manière très comparable, mais
l'instrument de mesure indique une grande distribution (82,95%). Un plan
d'amélioration doit donc être axé sur l'amélioration de l'instrument de
mesure.
4. Corrigez le système de mesure si nécessaire
Si les résultats de l'étape 3 imposent une correction du système de mesure,
les lignes directrices suivantes vous aideront à prendre les mesures
correctives appropriées, qui dépendent de la composante à l’origine du
problème.

Lorsque la répétabilité est la principale source de variation (donc


l'instrument), il est recommandé de remplacer, de réparer ou d'entretenir
plus l'instrument. S'il s'avère après concertation avec le fournisseur que
l'instrument de mesure est à la pointe et fonctionne correctement, vous
pouvez limiter le manque de répétabilité par la réalisation de plusieurs
mesures et les réconcilier. Vous pouvez aussi vérifier si l'instruction était
claire, car si elle laisse de la marge pour la distribution, cela débouchera
aussi sur une mauvaise répétabilité.

125
Lorsque l'opérateur est la principale source de variation (reproductibilité),
vous pouvez résoudre ce problème par la formation et par l'amélioration de
la façon dont les instructions de travail standard sont expliquées. Vous
pouvez examiner les différences entre les opérateurs pour obtenir une
indication de l'endroit où se situe le problème (formation, compétences,
instructions).

En cas de problèmes avec la tolérance, vérifiez toujours les spécifications du


produit par rapport à la faisabilité et au caractère raisonnable. Si la capacité
de l'instrument de mesure est marginale (jusqu'à 30%) et que le processus
opère à grande capacité (variation totale beaucoup plus petite que les
spécifications pour Y), l'instrument de mesure est peu susceptible de causer
beaucoup de problèmes et vous pouvez continuer à l'utiliser.
La figure 3.18 illustre les causes possibles des variations en ce qui concerne
le système de mesure. Celles-ci peuvent servir de point de départ pour la
correction.

Figure 3.18

126
3.4.3.2 Jauge R&R pour variables discrètes
La plupart des mesures dépendent d’instruments de mesure avec des
échelles ou d'équipements qui donnent la valeur des caractéristiques du
produit directement. Dans certains cas, les mesures sont obtenues grâce à
une évaluation subjective par les opérateurs. Quelques exemples :

• Déterminer si les factures sont complètes ou incomplètes.


• La présence ou l'absence d'une caractéristique particulière dans un
produit.
• Goût de fromage (sucré, amer, salé) sur une échelle de 1 à 5.

Ces variables ont des qualités qui sont subjectives. Pour déterminer si les
classifications sont cohérentes, nous avons besoin que plusieurs évaluateurs
classent les différents éléments. Les principes suivants s'appliquent :

• Quand il y a un consensus insuffisant entre les évaluateurs, le test n'est


pas très utile. Une option consiste à réduire le nombre d'évaluateurs.
• Lorsque les évaluateurs sont en désaccord la plupart du temps,
l'évaluation est utile dans une mesure limitée.

Le R&R attributif aide à déterminer si les classifications subjectives sont


cohérentes et correctes. On étudie à ce niveau les scores par évaluateur,
entre les évaluateurs et par rapport à une norme.

Les données attributives peuvent avoir les structures suivantes :

• Ordinale : les variables catégorielles avec au moins 3 niveaux possibles


dans un ordre naturel, comme : en désaccord, neutre, d'accord, ou une
échelle numérique de 1-5.
• Nominale : variables catégorielles avec au moins 2 valeurs possibles
sans ordre logique. Par exemple, le goût des aliments : salé, sucré, amer
et acide.

Les étapes à suivre pour déterminer si le système de mesure est approprié


ou non sont les mêmes que pour les variables continues :
127
1. Faire un plan de collecte de données pour analyser le système de
mesure.
2. Collecter les données.
3. Calculer dans Minitab et analyser les calculs.
4. Corriger le système de mesure si nécessaire.

Les étapes 1 et 2 sont conformes à la jauge R&R avec les variables continues.
Dans la suite de ce paragraphe, l'accent est mis sur le calcul, l'analyse et la
correction.

Dans Minitab, les données peuvent être analysées pour les données
nominales et ordinales via :

Minitab: Stat -> Quality Tools -> Attribute Agreement Analyses


Pour les données binaires :

Minitab: Stat -> Quality Tools -> Attribute Gage Study

Avec la réalisation de l'analyse en Minitab, toutes les méthodes d'analyse


sont montrées comme résultat. Sur la base d'un exemple, nous allons
discuter des différentes analyses.
Exemple
Un centre de développement forme cinq techniciens de laboratoire pour
évaluer la régularité de la moitié inférieure restante d'une boîte de
présentation déchirée pour les rayons d'un supermarché. La mesure dans
laquelle les techniciens assurent une évaluation correcte est étudiée. Dans
l'étude, chaque technicien évalue 15 éléments sur une échelle 1-5, où 1 est
le pire résultat et 5 le meilleur (données ordinales). Voir la figure 3.19.

128
Figure 3.19
Les résultats des techniciens sont indiqués à la figure 3.20:
Figure 3.20

Minitab: Stat -> Quality Tools -> Attribute Agreement Analysis


Figure 3.21

129
Cliquez sur « results » et indiquez les éléments suivants :

Figure 3.22

Résultats:

Figure 3.23

Dans le graphique, vous pouvez voir la correspondance des évaluateurs par


rapport à la norme. Vous pouvez aussi voir un intervalle de fiabilité autour
des valeurs trouvées, car celles-ci ne constituent qu'un échantillon et que
vous avez besoin d’avoir une opinion sur ce qu'il se passe en général, dans
l'ensemble de la population.

130
Ce point est abordé plus en détail dans le module d'analyse. Les chiffres sur
lesquels se fonde le graphique sont présentés ci-dessous.

Analyse de concordance de Rating


Chaque évaluateur en fonction du standard
Explication de l'assessment agreement : comptage simple qui indique dans
quelle mesure les résultats correspondent ou non à la norme.

131
Explication Kappa : les statistiques kappa calculent la correspondance
absolue entre les évaluations. Les statistiques Kappa traitent toutes les
différences dans les classifications comme « aussi » sérieuses.

Kappa est la proportion de correspondance après correction de la


correspondance par pure coïncidence. Lorsque Kappa est égal à 1, il y a une
correspondance parfaite. Lorsque Kappa est égal à 0, il y a aussi peu de
concordance que ce que l’on peut attendre d'une coïncidence. Meilleure est
la correspondance, plus grande est la valeur Kappa. Des valeurs négatives
peuvent se produire quand il y a moins de correspondance que ce que l'on
peut attendre d’une coïncidence (cela se produit rarement). Lorsque Kappa
est inférieur à 0,7, cela indique que le système de mesure doit être
amélioré. Les valeurs supérieures à 0,9 sont excellentes.

Explication coefficient de Kendall : le coefficient de Kendall ne traite pas


toutes les mauvaises classifications comme étant aussi graves. Les
conséquences de la mauvaise classification d'un élément parfait (note = 5)
132
comme mauvais (note = 1) sont plus graves que si on lui donnait un très bon
score (note = 4). Le coefficient de Kendall est utilisé pour noter la
correspondance entre les évaluateurs (appraisers) quand les scores sont
ordinaux. Le degré de déviation est donc inclus. La valeur du coefficient de
Kendall est comprise entre -1 et 1. Le coefficient est également calculé pour
déterminer la correspondance avec une norme. La valeur se situe entre
0 et 1. En ce qui concerne le coefficient de Kendall, une valeur supérieure à
0,7 est acceptable et une valeur supérieure à 0,9 est très bonne.
Inter-évaluateurs

Tous les évaluateurs en fonction du standard

133
* REMARQUE * Essai unique pour chaque évaluateur. Aucun pourcentage de
concordance
d'évaluation intra-évaluateur n'est relevé.
Il est clair que, selon Kappa, il y a un certain nombre d'évaluateurs qui ne
satisfont pas (< 0,8 (donc 80%)), mais quand vous prenez l'écart relatif en
compte (noter un 4 alors que ça devrait être un 5 est moins grave que noter
un 1 alors que ça devrait être un 5), les évaluateurs sont tous satisfaisants
(le coefficient de Kendall est > 0,8 pour tous les évaluateurs).

Finalement :

Il existe deux types de base pour les données attributives : les nominales et
les ordinales, qui ont toutes deux leurs propres outils dans Minitab. Pour
une bonne analyse, il est important de bien réfléchir à la technique MSA que
vous allez utiliser avant même la collecte des données. De cette façon, les
données peuvent être collectées d'une manière qui se prête à une certaine
technique de jauge R&R attributive.

134
3.5 Exercices
Taille d’échantillon
Déterminez la taille de l'échantillon minimale pour les essais suivants :

Que voulez-vous savoir sur la population ? Taille d’échantillon


minimale recommandée
Valeur moyenne d’une population
Ecart-type d’une population
Proportion défectueuse (P) dans une
population
Fréquences de valeurs dans différentes
catégories (d’histogramme ou de diagramme
de Pareto)
Relation entre les variables (comme dans un
diagramme de dispersion ou de corrélation)
Stabilité dans le temps

Pareto
Faites un diagramme de Pareto à partir du diagramme à barres suivant :

Causes for cancellation of surgery


60 57

50

40
occurences

31
30
24

20

12
10 8
4 4

0
le le m ds il . ady ied
lab lab l ar be ava t re up
vai vai Fir
ea gh m no occ
ra ta ou r oo t y
ct o t an te
n y i en X-r
a
do
ass
i s
No ger pat
No sur
No no

Figure 3.24
135
Définition opérationnelle
Faites une définition opérationnelle pour le terme :
« Inoxydable ».

Types de données
Indiquez dans quelles catégories classer les types de données ci-dessous:

A. bon/erroné B. sexe C. homme/femme/enfant

D. prix de vente E. petit/moyen/grand F. provinces aux PB

G. échelle salariale 1 à 5 H. vitesse en km/h I. entière/cassé

J. plainte K. température L. mois

Binaire Continue

Ordinale Nominale/catégorie

Collecte des données : cas bureau de poste


Dressez un plan de collecte de données pour le bureau de poste en :
- Enonçant l’objectif
- Inscrivant la définition opérationnelle
- Déterminant les facteurs de stratification
- Déterminant le schéma d’échantillons, la fréquence et la
résolution
- Sélectionnant un instrument de mesure adéquat

136
Reproductibilité, répétabilité & exactitude

Figure 3.25

Indiquez par cible (le centre de la cible est « vrai ») :


- Ce qu'il en est de la reproductibilité (bon+ ou mauvais-).
- Ce qu'il en est de la répétabilité (bon+ ou mauvais-).
- Ce qu'il en est de la précision (bon+ ou mauvais-).

137
138
CHAPITRE 4 : PERFORMANCE DE BASE
4.1 Introduction
Dans le chapitre précédent, l'output de processus Y mesurable a été défini,
la méthode de mesure a été sélectionnée et la fiabilité de l'instrument de
mesure a été analysée. Nous sommes prêts à mesurer ! Dans cette
quatrième étape du projet Lean Six Sigma, nous discutons de la performance
de base du processus : quelle est la performance du processus dans la
situation actuelle ? La performance de l'output du processus par rapport à la
spécification est appelée la Process Capability (capacité de processus). La
valeur de la capacité de processus dans la situation actuelle est une partie
de la performance de base. Dans les paragraphes suivants, ces termes sont
expliqués plus en détail.

4.2 Capacité de processus


La capacité de processus est importante pour les raisons suivantes :

• Avoir une idée de la performance actuelle du processus par rapport aux


exigences imposées au processus.
• Avoir une vision de la performance du « meilleur cas ».
• Déterminer les facteurs qui influencent la capacité du processus en :
- Observant des formes de diffusion anormales.
- Observant une instabilité du processus au fil du temps.
- Observant un output anormal ou des valeurs aberrantes.

Il existe différentes façons de déterminer la performance de base. Les


statistiques descriptives et les quelques outils d'analyse graphique suivants
peuvent être appliqués pour représenter le comportement du processus sur
la base des données qui ont été collectées :

139
• Répartition normale (Normal Probability Plot)
• Histogramme
• Boîte à moustaches
• Cartes d’essai (Run chart)
• Analyse de capacité graphique
• Cartes de contrôle (Control chart)
• Diagramme de Pareto
Ces outils d'analyse graphique sont expliqués en détail à l'Annexe I. En
outre, il est expliqué comment Minitab peut être utilisé pour ces analyses
graphiques.
Pour déterminer la performance d'un processus, cette performance doit
être confrontée à une norme ou une spécification. Ces spécifications
peuvent être bilatérales, par exemple la température d'une piscine (pas trop
froide ni trop chaude) ou unilatérales, par exemple la vitesse de livraison
d'un colis postal (le plus tôt sera le mieux, mais pas plus de deux jours). Dans
Six Sigma, on utilise les termes suivants :
Lower Specification Limit (LSL) : Limite de spécification inférieure
Upper Specification Limit (USL) : Limite de spécification supérieure
Selon le processus, vous pouvez être confronté à la fois une LSL et une USL,
ou seulement à une LSL ou une USL. La figure 4.2. illustre graphiquement le
comportement de processus par rapport aux spécifications.
Les spécifications ne sont pas toujours disponibles et devront alors être
déterminées dans le cadre du projet d'amélioration. Cela se fera parfois en
concertation avec le client, et parfois en concertation avec le donneur
d'ordre.

140
4.2.1 Déterminer les normes de performance
Pour déterminer la capacité de processus, des normes de performance sont
nécessaires : les spécifications. Il existe diverses sources qui peuvent être
utilisées pour déterminer ces normes :

• Les spécifications existantes : internes ou imposées par le client.


• Les résultats de pilotes internes.
• Les normes internationales, les normes industrielles ou d'ingénierie (par
exemple, les normes ISO/OSI).
• Les spécifications de vente, les tolérances.
• Les règlements gouvernementaux.
• Les informations des concurrents.
Ces sources peuvent constituer l'input pour déterminer les normes de
performance. Une norme de performance doit être liée au CTQ. Si une
norme est respectée ou si toutes les valeurs de Y sont dans les limites de
spécification, cela signifie que l'on satisfait aux éléments critiques pour que
le processus corresponde aux exigences des clients : le CTQ.
Gardez les directives suivantes à l'esprit lors de la détermination des normes
de performance (la LSL et/ou l'USL) :
1. Déterminez une norme qui équilibre les exigences des clients, les forces
externes et les exigences internes. Par exemple : de quoi a besoin le
client, que fait la concurrence, qu’est-ce que le gouvernement exige et
qu’est-ce que l’entreprise estime comme le « bon niveau » à offrir.
2. Si une norme existe déjà : confirmez la validité. Des essais ou des
expériences parmi les clients peuvent être nécessaires pour déterminer
ce qui est vraiment nécessaire. Cela peut fournir une norme plus large
(et peut-être la possibilité de réduire les prix) ou une norme plus stricte,
pour éviter des problèmes liés au processus chez le client.

141
4.2.2 Déterminer la capacité du processus
Maintenant que l'USL et/ou la LSL ont été déterminées et que les données
ont été recueillies, l'analyse initiale des données peut avoir lieu. Utilisez un
histogramme pour vérifier les points suivants :
Les données sont-elles distribuées normalement ?

Si les données ne sont pas distribuées normalement, cherchez une


explication. Vérifiez si une division en sous-groupes (via les facteurs de
stratification) explique la distribution anormale. Si les données contenues
dans les sous-groupes sont distribuées normalement, cela explique la
distribution anormale de la population dans son ensemble. Si cela ne fournit
pas l'explication souhaitée, des outils spéciaux pour les populations
anormalement distribuées (données sans répartition) peuvent être utilisés.
Dans certains cas, avoir une distribution anormale est acceptable (d'une
manière générale, les délais ne sont pas distribués normalement), ou il peut
être possible de transformer mathématiquement les données en un
ensemble de données à distribution normale, par exemple en prenant la
racine carrée du logarithme des données. Une autre option consiste à
simplement déterminer la fraction de « défauts », puis de déterminer dans
le tableau de score Sigma quel est le niveau de sigma associé.

Y a-t-il des valeurs aberrantes ?

Premièrement, assurez-vous qu'aucune erreur de mesure n’a été commise


ou tentez d'expliquer les valeurs aberrantes. Les ventes de dinde ne seront
pas réparties uniformément sur l'année. Toutefois, la valeur aberrante
autour de Noël est facile à expliquer.

Si moins de 0,5% de tous les points de données sont des valeurs aberrantes,
ils peuvent parfois être retirés de l'ensemble des données et être
« parqués » (ne pas les jeter). Les données restantes peuvent être utilisées
pour définir la capacité de processus. Officiellement, on détermine la
capacité une fois que les données sont normalement réparties et sans valeur

142
aberrante, et une fois que l'on a déterminé qu'il s'agissait d'une bonne
mesure.
La capacité de processus exprime dans quelle mesure l'output du processus
Y reste dans les normes de performance qui s'appliquent au processus,
définies comme la LSL et/ou l'USL. Toute valeur de Y qui se trouve en dehors
des limites est considérée comme un défaut. Dans le cas des données
continues, la distribution normale peut être utilisée. Dans le cas de données
discrètes, on part des « défauts par million d'opportunités » (DPMO) pour
déterminer le niveau Sigma, en utilisant le tableau de conversion du DPMO
en valeur Z (Z est le niveau Sigma).

Unités pour exprimer la Capacité de Processus


Il existe différents indicateurs par lesquels la performance du processus, la
Capacité de Processus, peut être exprimée :
1. Valeur Z
2. +
3. + ;
Ces grandeurs sont sans dimension. Cela permet de comparer différents
processus en fonction de leur performance. Un processus administratif peut
être comparé à un processus de production. Dans les entreprises, cette
méthode peut être utilisée pour définir des objectifs d'amélioration. Les
processus présentant le score le plus bas demandent le plus d'amélioration.

Valeur Z
La valeur Z (ou niveau sigma) est liée au degré de défauts et indique
(globalement) le nombre d'écarts-types que l’on peut insérer entre la
moyenne des données et la limite la plus proche (LSL ou USL), sur la base
d'une distribution normale. Exprimé en une formule (en supposant que la
LSL est la limite la plus proche) :
 = − ?@?
<=


Plus la valeur Z est élevée, moins on a de risques de défauts et plus stable


est le processus.

143
Figure 4.0

Cf. figure 4.0 pour une explication à l'aide de la répartition. Lors du calcul de
la valeur Z proprement dit, les défauts situés au-delà de l'autre valeur de
spécification sont aussi repris dans la définition. Minitab le calcule pour nous
lors de l'analyse de la capacité, et dans le cas où les deux limites sont plus ou
moins aussi loin de la moyenne, on observera une valeur Z légèrement
inférieure par rapport à quand on examine uniquement la limite la plus
proche.

La valeur Z de toutes les données est considérée comme un score à long


terme (< ). Toutes les sources de variation y sont présentes. Si les données
peuvent être divisées en sous-groupes rationnels via les facteurs de
stratification, une nouvelle valeur Z peut être déterminée pour chaque sous-
groupe. Le sous-groupe avec la plus haute valeur Z représente le cas de
meilleure performance du processus, sans les variations à long terme
supplémentaires (comme des matières premières différentes, d’autres
employés, une autre équipe, l’usure, etc.). Cette valeur est appelée la
valeur Z à court terme (<A ). La différence entre les deux indique le potentiel
d'amélioration appelé <ABC . Chez Motorola, le fondateur de Six Sigma,
cette différence est estimée de manière standard à 1,5 sigma.

144
Figure 4.1

Il s'agit du contexte du glissement de 1,5 sigma dans le tableau « DPMO vers


valeur Z » (Annexe 9). Dans la pratique, ce glissement de 1,5 sigma peut
considérablement varier d'un cas à l'autre, selon que l'on soit confronté à un
problème à variation à court ou à long terme. Avec Minitab ce glissement
peut être calculé avec précision pour votre processus.
Capacité de processus + et+ ;

L’unité de la performance d'un processus qui est souvent utilisée dans


l'industrie est le + . Il est utilisé quand un processus est stable entre deux
limites (LSL et USL). La formule pour + est la suivante :

+ D
789:989
45

La valeur + présente une limitation : lorsque la moyenne du processus n'est


pas placée exactement entre l'USL et la LSL, la performance du processus est
moins bonne que ce que le laisse supposer la valeur + . Dans les cas
extrêmes, toutes les valeurs peuvent même être en dehors des
spécifications avec une valeur + optimale (voir figure 4.2). La CP est donc la
capacité potentielle, pas la capacité actuelle.
145
Pour traiter la limitation susmentionnée, il y a la valeur + ; . La valeur + ;
relie le comportement du processus à la limite de processus qui est la plus
proche de la moyenne (LSL ou USL). La formule pour + ; est la suivante :

+ ;D
789:EFGG ó$ + ;D
EFGG:989
H5 H5

Figure 4.2

La différence entre + et + ; est illustrée à la figure 4.2.

Lorsque la moyenne est située en dehors des spécifications, la valeur + ; est


même négative. Le tableau 4.0 illustre des valeurs + et + ; pour différentes
limites de processus, exprimées en niveau σ : vous pouvez voir qu'un
facteur 3 se situe entre elles. Donc un + de 1 correspond à une valeur Z
de 3.

146
Tableau 4.0
Valeur Z 1 2 3 4 5 6
+ ,+ ; 0,33 0,66 1 1,33 1,67 2

4.3 Performance de base


Sur la base des données collectées, la performance actuelle du processus est
définie en mesurant l'output de processus Y. Cet Y peut être exprimé en
température, temps, vitesse ou dans une autre unité. Dans le paragraphe
précédent, trois grandeurs sans dimension sont données et reflètent une
mesure pour la performance du processus : la valeur Z, + et + ; . La
capacité de processus peut être exprimée dans ces trois unités. Dans la
charte de projet, reprenez toujours la capacité de processus actuelle. Pour
les données non continues, elle peut aussi être exprimée sous la forme d'un
DPMO ou d'un pourcentage de défauts.

Exemple de données non continues : imaginons que votre objectif soit de


réduire le temps d'attente des appelants à un helpdesk téléphonique. Pour
déterminer la capacité du processus actuelle, vous mesurez le temps
d'attente de 1 000 appels. Vous les transposez dans Excel et vous calculez la
moyenne et l'écart-type. Le temps d'attente maximal que le client trouve
acceptable est 120 secondes.
Il s'avère que le délai d'attente moyen est de 90 secondes et que l'écart-type
est de 15 secondes.
La valeur + ; est donc de : (120-90)/(3*15) = 0,67.

La valeur Z est le nombre de fois que l'écart-type « se place » entre la


moyenne et la limite de spécification. Cette valeur est donc de 2, car (120-
90)/15=2.

Il n'est pas possible de calculer un + , car il n'y a qu'une seule limite de


spécification.

Si le marché visait toutefois à : « réduire le nombre de personnes qui


raccrochent avant d'avoir été prises en charge », cela concerne des données

147
discrètes (type oui/non). Pour calculer la capacité, vous devez déterminer
combien de personnes ont raccroché et utiliser le DPMO ou la valeur Z
comme résultat de capacité.

Imaginons qu'il y ait eu 1.000 appels, dont 200 où la personne a raccroché.


Voici la capacité :
En pourcentage: 20%.
En tant que DPMO: 200.000.
En tant que valeur Z (avec le DPMO en tableau Z): valeur Z = 2,3.

4.4 Exercices
Spécification
Comment appelle-t-on les limites supérieures et inférieures d'une
spécification client ?

Capacité de processus
Pour déterminer la capacité de processus, nous examinons la performance
du processus (Y) par rapport aux limites de spécifications définies. Une
distinction est faite entre les données continues et des données discrètes.
Quelle est cette distinction ?

Pourquoi les processus sont-ils convertis en capacité de processus (+ , + ; ,


valeur Z) ?

148
149
150
CHAPITRE 5 : OBJECTIF FONDE SUR LA
PERFORMANCE DE BASE

5.1 Introduction
Dans le chapitre précédent, la performance actuelle du processus que nous
voulons améliorer a été déterminée. La collecte et l'analyse des données a
permis de mieux comprendre les valeurs actuelles de Y (moyenne, écart-
type) et la capacité du processus. Cette compréhension permet de
concrétiser les objectifs d'amélioration décrits dans la charte du projet. Dans
ce chapitre, nous allons approfondir la concrétisation de l'objectif
d'amélioration.

5.2 Déterminer l’objectif d’amélioration


Lorsque nous connaissons la performance de base, nous connaissons la
performance actuelle du processus. Dans cette phase du projet,
l'amélioration doit être quantifiée. L'objectif d'amélioration doit être
réaliste. Les sources suivantes peuvent aider à déterminer l'objectif
d'amélioration :

• Benchmark interne ou externe pour un processus


• Souhaits ou exigences des clients
• Le meilleur des cas (dans un sous-groupe)

L'objectif est exprimé en une valeur cible pour Y. On peut déterminer dans
quelle mesure cette valeur cible est réaliste en étudiant l'entitlement
(mandat). C'est la meilleure performance de processus enregistrée par le
passé. D'une manière générale, cette valeur cible est déterminée avec le
sponsor. La valeur cible convenue est également exprimée en termes de
valeur sigma ou DPMO (ou en pourcentage de défauts). L'objectif est inscrit
dans la charte de projet.

151
5.3 Recalcul des bénéfices
Lors de la définition du défaut et de la rédaction de la charte de projet, on
évalue les bénéfices du projet. Cette évaluation est faite sur la base des
informations qui étaient disponibles à ce moment-là. Après la détermination
de la capacité de processus et de l'objectif d'amélioration quantifié, on a
une meilleure vision sur les possibilités du projet d'amélioration. Cela peut
avoir des conséquences sur les bénéfices qui ont été estimés initialement.

Les bénéfices devront à nouveau être déterminés sur la base de l'objectif


d'amélioration plus strict. Cf. à cet effet le point 2.3.7. Consignez cette
nouvelle définition des bénéfices dans la charte de projet. Discutez des
bénéfices du projet avec le sponsor du projet/propriétaire du processus.
Suite aux nouvelles données, les bénéfices peuvent s’avérer
considérablement plus faibles que prévu dans la phase de définition. C'est
pourquoi il convient de redéfinir la priorité du projet et d'oser interrompre
le projet à temps s'il s'avère que son potentiel d'amélioration est limité par
rapport à d'autres projets d'amélioration possibles.

5.4 Exercices

Objectif d'amélioration
Qui détermine en fin de compte l'objectif d'amélioration ?

152
153
154
PARTIE 3: ANALYSE

Dans cette troisième partie, la phase d'analyse de l'approche DMAIC est


traitée. L'objectif de la phase d'analyse est le suivant :

Déterminez quels paramètres du processus (inputs) ont le plus d'effet sur les
résultats critiques du processus (outputs).

Dans la phase d'analyse, les deux étapes suivantes du plan en 12 étapes


occupent une place centrale :

1. Identifier les causes possibles de variation


2. Déterminer les causes premières

Après cette partie, vous serez en mesure de :

• Indiquer quels X influencent le Y


• Classer les X en fonction de leur impact
• Démontrer, sur la base de statistiques, quels X affectent le Y
• Expliquer quels X seront utilisés pour réaliser l'objectif d'amélioration
• Indiquer que valent les coûts et bénéfices sur la base des X essentiels

Après avoir terminé la phase d'analyse, les éléments suivants seront livrés :

• Une liste des X possibles


• Une sélection des X essentiels

155
156
CHAPITRE 6 : CAUSES POTENTIELLES DE
VARIATION

6.1 Introduction
A l'étape 5 du plan en 12 étapes, l'objectif d'amélioration est quantifié et
exprimé dans une nouvelle valeur pour Y. Les variations (et les écarts) sont
les causes suite auxquelles le Y n'atteint pas toujours la valeur souhaitée.
Dans ce chapitre, nous examinons les causes possibles de cette variation.
Ces causes possibles sont appelées les X. Le but de ce chapitre est de
cartographier toutes les causes possibles (aussi appelées les « trivial
many »). Dans le chapitre suivant, nous rechercherons les X qui ont le plus
d'impact sur la variation de Y (également appelés les « vital few »), sur
lesquels les efforts d'amélioration seront concentrés dans la phase
d'amélioration.
Figure 6.0

157
6.2 Causes potentielles (X)
Le résultat de cette première étape pour trouver les causes possibles de
variation est une liste de X. Il y a en règle générale beaucoup de sources de
variation. Tous ces X ne contribuent pas de manière substantielle. Outre la
question visant à savoir si un certain X contribue substantiellement à la
variation, il sera important plus tard (!) de voir si un contrôle est possible sur
ce X. S'agit-il d'un bouton que l'on peut tourner facilement ? Par exemple,
bien que la météo soit une cause majeure d’embouteillages en Belgique, il
est difficile de l'influencer. Nous pouvons par contre veiller (si nous savons
ce qu'il en sera du temps) avec d'autres X à ce que l'on arrive à temps,
malgré les embouteillages. Mieux vous savez quelle est l'influence du temps
sur la durée de votre trajet et mieux vous connaissez les prévisions, mieux
vous pouvez en tenir compte et adapter votre heure de départ de manière
optimale. Les X que nous ne pouvons pas influencer sont appelés « bruit »,
mais nous les reprenons aussi dans la recherche de tous les X. La recherche
ne se limite donc pas aux X qui représentent différentes configurations
d'équipement, de procédures ou de règles. Ces X peuvent être soit continus
soit discrets.
La procédure qui sera suivie dans les prochains chapitres pour identifier les
causes premières est la même que celle utilisée pour déterminer le CTQ et le
Y:

• Cartographier les X de projet potentiels


• Prioriser ensuite le X de projet
• Sélectionner les causes premières que vous allez traiter
Cartographier les X potentiels est la première étape. L'objectif de ce chapitre
est consacré à la cartographie de tous les X qui peuvent contribuer au Y.

158
6.2.1 Outils pour déterminer les causes potentielles
Il existe différents outils qui peuvent être utilisés pour identifier les X
possibles :

• Diagramme de processus (ou illustration de processus graphique)


• Diagramme de cause à effet
• Matrice de cause à effet
• Analyse des modes de défaillance et de leurs effets (FMEA)

En outre, lors de la mesure du Y projet, les facteurs de stratification


potentiels ou d'autres variables qui peuvent être des X possibles sont repris.
C'est pourquoi nous utilisons les outils suivants de la phase de mesure pour
définir l'inventaire des causes possibles :

• Plan de collecte de données


• Analyse graphique du Y projet

Le diagramme de processus est abordé aux paragraphes 2.4 et 3.2.2. Le


diagramme de processus peut donner une vision sur les étapes et les
activités qui causent la variation de l'output du processus Y.

6.2.2 Diagramme Cause & Effet


Un diagramme de cause à effet est un outil qui permet d'identifier, trier et
présenter toutes (!) les causes possibles d'un aspect spécifique de problème
ou de la qualité. Il illustre graphiquement la relation entre un résultat donné
(Y) et tous les facteurs (X) qui influent sur ce résultat. Ce type de diagramme
est également connu comme diagramme d’Ishikawa, d’après son inventeur,
Kaoru Ishikawa. Le « diagramme en arêtes de poisson » est aussi un terme
que l'on rencontre souvent.

La figure 6.1 illustre un exemple de diagramme vide. On utilise souvent les


matériaux, les personnes, les méthodes, les machines, les mesures et

159
l'environnement comme axes principaux afin d'orienter le processus de
cartographie.

Figure 6.1

Le diagramme Cause & Effet est un outil très utile pour les raisons
suivantes :

Le diagramme Cause & Effet :

• Aide à identifier les causes premières d'un problème ou d'une


caractéristique de la qualité, en utilisant une approche structurée.
• Encourage la participation du groupe et utilise les connaissances du
groupe sur le processus.
• Utilise un lay-out qui est organisé et facile à lire pour afficher la relation
de cause à effet.
• Indique les causes possibles des variations de processus.
• Augmente les connaissances du processus en permettant à chacun de
mieux connaître les facteurs impliqués et comment ils sont reliés.
• Indique les domaines où des données doivent être collectées pour des
recherches plus poussées.

160
Construire un diagramme Cause & Effet
Les étapes présentées ci-dessous donnent un fil conducteur pour la
construction d'un diagramme de cause à effet :
1. Identifiez clairement et définissez la conséquence (effet) qui est en
cours d'analyse :
• L'effet est décrit comme étant le problème, comme cité dans la
charte. Lors de la réalisation du diagramme pour votre projet,
un Y trop faible (ou trop élevé) en est généralement la
conséquence.
• Utilisez des définitions opérationnelles (voir plan de collecte
des données) pour faire en sorte que la signification de l'effet
soit clairement comprise.
2. Assurez-vous que tout le monde puisse participer et que tout le monde
puisse voir le diagramme. Dessinez le diagramme et le bloc d'effet (par
exemple sur un tableau blanc ou du papier).
3. Identifiez les catégories de causes qui contribuent à l'effet étudié :
• Les méthodes, les matériaux, l'homme, les machines, les
mesures, l'environnement.
• Les règlements, les procédures, les personnes, l'usine.
4. Pour chaque branche principale, déterminez différents facteurs qui
peuvent être la cause de l'effet.
• Recherchez un maximum de causes ou facteurs potentiels et
reliez-les aux sous-branches des branches principales (avec
l'équipe, il est utile d'utiliser des post-it et des marqueurs).
5. Identifiez les niveaux de plus en plus détaillés des causes et organisez-
les en fonction des causes apparentées ou des catégories.
• A partir des causes citées, demandez à plusieurs reprises
« pourquoi » afin de déterminer les causes sous-jacentes.
6. Analysez le diagramme. Cela vous aidera à identifier les causes qui
doivent être étudiées de manière plus approfondie.
• Etudiez le « bilan » de votre diagramme. Obtenez des niveaux
de détail semblables pour la plupart des catégories :

161
- Un cluster lourd d'éléments dans une seule catégorie
peut clairement impliquer la nécessité d'un examen
complémentaire.
- Une catégorie principale avec seulement quelques
causes spécifiques peut indiquer que davantage de
causes doivent être identifiées.
- S'il y a plusieurs branches qui n'ont que quelques
sous-branches, il peut être judicieux de les combiner
en une seule catégorie.
• Recherchez les causes qui apparaissent plusieurs fois. Il peut
s’agir des causes premières.
• Voyez aussi ce que vous pouvez mesurer par rapport aux
causes que vous avez trouvées afin de pouvoir quantifier la
variation.

Le diagramme de cause à effet peut éventuellement être développé dans


Minitab via :
Stat -> Quality Tools -> Cause & Effect

La figure 6.2 contient un exemple d'un diagramme de cause à effet qui a été
rempli.

162
Figure 6.2
6.2.3 Matrice Cause & Effet
La matrice de cause à effet évalue la corrélation possible entre plusieurs
effets (Y1, Y2, ...) et les causes sous-jacentes (X1, X2, ...).

Cette matrice est souvent utilisée après le diagramme de cause à effet afin
de déjà effectuer en cas de (trop) nombreuses causes possibles une
première séparation entre les X avec lesquels on continue de travailler ou
non. Outre le fait qu'une corrélation est établie entre X et Y, cette
corrélation reçoit aussi un score de sorte que les causes puissent être
directement priorisées. Les scores possibles souvent utilisés sont 0, 1, 3, 6 et
9, pour désigner respectivement aucune corrélation, une faible corrélation,
une corrélation moyenne, une forte corrélation et une très forte corrélation.
Par ailleurs, si un effet (Y1) pèse plus lourd qu'un autre (Y2 ou par exemple
un « do not harm Y »), ces effets ont un facteur de pondération différent. Ce
facteur de pondération est multiplié par le score de corrélation (0, 1, 3, 6, ou
9), pour déterminer le score total par cause. L'inventeur de la matrice a
d'ailleurs uniquement utilisé 0, 1, 3, 9 pour rendre les différences plus
grandes. Le résultat de la matrice de cause & effet peut éventuellement être
illustré graphiquement dans un diagramme de Pareto, afin que la règle des
80/20 puisse être appliquée pour déterminer avec quelles causes (possibles)
on continue de travailler. La matrice de cause & effet est donc souvent
utilisée après un brainstorming sur la base du diagramme d'Ishikawa.
Concrètement, il se peut qu'il y ait trop de X possibles pour tout mesurer.
Une première sélection est donc faite sur la base des connaissances du
processus de l'équipe. La matrice C&E aide à déterminer ce qui va être
mesuré ou non, ce qui permet de maintenir le projet gérable. Puisque les
scores sont des évaluations de l'équipe, il est d'ailleurs possible qu'ils ne
soient pas tout à fait justes. Un risque de l'utilisation de cette matrice est
donc qu'un X potentiellement important soit estimé et coté comme n'étant
pas si important, et ne soit donc pas repris (à tort) dans le projet.

Cf. les figures 6.3 et 6.4 pour une illustration de la matrice et du Pareto qui
en découle.

163
Figure 6.3

Figure 6.4
Pareto Chart of Cause
600 100

500
80
400
Percent
Count

60
300
40
200

100 20

0 0
Cause t . ts s s l
es gt r.
%
es ed re ce ve
qu st tu ur Le
re lm in
te qu ue na so al
r va t re eq
pe
o
ke of r s ig re o n
pr ar nt # # at
i
ts ap #
ou uc
f ec of fm ed
de l. o am
# ai il.
av a va
Count 126 117 95 66 60 48 39 33
Percent 21,6 20,0 16,3 11,3 10,3 8,2 6,7 5,7
Cum % 21,6 41,6 57,9 69,2 79,5 87,7 94,3 100,0

164
Le diagramme de Cause & Effet ainsi que la matrice de Cause & Effet
peuvent être appliqués en combinaison pour arriver aux causes de variation
les plus plausibles. On collecte ensuite des données à partir de ces causes les
plus plausibles pour analyser lors de la phase d'analyse ces données de
manière à ce que l'on sache clairement s'il s'agit de causes réelles (c'est ce
que l'on appelle le passage du « Trivial Many » au « Vital Few » X.)

La matrice de Cause & Effet fait donc ici office de filtre entre le diagramme
de Cause & Effet (où l'on cite souvent 50 X possibles) et la mesure de ces X.
50 X est généralement un nombre trop élevé pour en tirer des données. Ce
filtre est donc nécessaire. S'il est possible de collecter des données sur les
50 X, c’est bien sûr préférable.
Dans certains projets Green Belt, ou des projets où les causes sont
suffisamment claires sans une analyse difficile, la matrice Cause & Effet (qui
est donc surtout basée sur les connaissances de processus des membres de
l'équipe) peut conduire au traitement des X « évidents ». Dans les autres
cas, l'analyse doit être effectuée, ce qui signifie que des données doivent
être recueillies sur ces X (et les données Y associées).

6.2.4 Analyse des modes de défaillance et de leurs


effets (FMEA ou AMDE)
L'analyse des modes de défaillance et de leurs effets est un puissant
instrument pour déterminer et prioriser les causes. Cet instrument est
principalement utilisé pour cartographier les risques de défaillance d'un
produit ou d'un processus, et leurs effets, d'une manière systématique
avant qu'ils ne surviennent. Dans ce sens, cet instrument est indépendant
de Six Sigma. Il est appliqué à de nombreux endroits dans l'industrie et les
services (généralement sous un autre nom) afin de cartographier les effets
indésirables des produits et processus. Sur la base de cette vision, on
détermine les actions à prendre pour empêcher les défaillances possibles
(ou la gravité de l'effet). Les questions pertinentes sont les suivantes :
« Qu'est-ce qui peut mal se passer ? », « Comment ? », « Pourquoi ? »,
« Que pouvons-nous faire pour l'éviter ? ».

165
Pour chaque étape du processus, une équipe recherche les facteurs de
défaillance possibles, les défauts et l'effet de la défaillance. La gravité de la
conséquence, la probabilité de survenance de la défaillance et la possibilité
de détecter la cause de la défaillance avant qu'elle se produise sont notées.
Ces scores sont multipliés entre eux jusqu'à l'obtention d'un score total : le
Risk Priority Number (numéro de priorité de risque - RPN). Ce RPN indique la
priorité des facteurs qui doivent être traités pour réduire le risque
(probabilité ou effet). La FMEA peut être appliquée en différentes phases
afin d'établir des relations et de les classer, par exemple CTQ par rapport au
VOC, Y par rapport au CTQ, ou X par rapport au Y.

La figure 6.5 donne un exemple de FMEA avec les colonnes qui doivent être
remplies.

Figure 6.5

Faire une FMEA est un travail d'équipe qui nécessite une préparation pour
réussir. Les instruments suivants peuvent être utilisés dans cette
préparation :

• Le diagramme de processus
• Le diagramme Cause & Effet
• La matrice Cause & Effet
166
• Histoire du processus
• Les procédures techniques du processus
Comme indiqué, le résultat d'une FMEA dépend de l'objectif pour lequel on
l’utilise et de la phase dans laquelle il est appliqué. Le résultat peut être :

• Une liste priorisée de CTQ (phase définir) et Y (phase mesurer)


• Une liste priorisée des X (phase analyser)
• Une liste d’actions pour éviter les modes de défaillance ou les causes
(phase améliorer)
• Un historique des actions prises et des activités futures (phase de
contrôle)

Les éléments centraux de la FMEA sont :

• Le mode : différentes circonstances dans lesquelles l'étape du processus


ou un composant peut échouer.
• L'effet (conséquence) : les conséquences lorsque l'étape de processus
ou le composant échoue.
• Gravité : la gravité de la défaillance du système.

Ces éléments sont élaborés dans une réunion d'équipe. Les lignes directrices
suivantes peuvent être utilisées pour développer une FMEA :
1. Notez les étapes du processus ou les éléments dans la colonne
« Process step/part number ».
2. Déterminez la défaillance potentielle dans cette étape dans la colonne
« potential failure mode ».
Décrivez la situation dans laquelle le processus échoue. La défaillance
doit être liée aux spécifications de prestation du Y.
3. Notez l'effet de la défaillance dans la colonne « potential failure
effects ».
Les effets doivent être liés aux CTQ de la phase de définition et être
observés par le client (interne).
4. Déterminez la gravité de la défaillance (severity) dans la colonne
« SEV ».

167
Le degré de gravité est exprimé en un score. Ce score est défini avec
l'équipe. Le tableau 6.0 peut être utilisé comme exemple pour noter la
gravité.
Tableau 6.0
Gravité Description Score
Elevée Ne répond pas du tout aux exigences des clients ; le 5
défaut rend le processus très inefficace ; cause des
problèmes et des retards majeurs
Moyenne Peut causer de l'insatisfaction client ; le défaut rend 3
le processus un peu moins efficace ; peut causer des
problèmes et des retards
Faible Affecte un peu, voire pas du tout le client ; le défaut 2
a peu ou pas d'impact sur l’efficience et ne
provoque guère de retard
Aucune N'a pas d'impact sur le client ou le processus 1
5. Complétez la liste avec les causes des défaillances possibles dans la
colonne « potential causes ».
Décrire la cause de la défaillance sous forme de quelque chose qui peut
être vérifié ou corrigé. Attention : une même défaillance peut avoir
plusieurs causes.
6. Déterminez la probabilité d'apparition de la défaillance (occurrence)
dans la colonne « OCC ».
Cette probabilité, ainsi que la fréquence d'apparition prévue, est
également illustrée dans un score. A l’aide du tableau 6.1, on peut
estimer la fréquence d’une défaillance.

Fréquence Estimation de la fréquence à laquelle se Score


produit la cause en question par rapport à
la fréquence à laquelle l'étape de
traitement est effectuée.
Très souvent 30% 5
Souvent 5% 4
Parfois 0,5% 3
Rarement 0,01% 2
Jamais <0,01% 1
Tableau 6.1
168
7. Indiquez les mécanismes de contrôle existants dans la colonne « current
controls ».
Donnez une brève description des contrôles existants qui ont été
instaurés pour prévenir ou détecter le mode de défaillance spécifique.
8. Attribuez le niveau de détection dans la colonne « DET ».
Un score est attribué au niveau de détection. Le tableau 6.2 donne une
ligne directrice :
Tableau 6.2
Probabilité que le défaut soit Probabilité que le Score
détecté (qualitatif) défaut soit détecté
(quantitatif)
Il n'y a pas de contrôles, pas de Probabilité de détection 5
détection 0-20%
(parfois uniquement
pour 0%)
La détection est possible, mais peu Probabilité de détection 4
probable 20-40%
En moyenne, la moitié des défauts Probabilité de détection 3
sont détectés 40-60%
D'une manière générale, ce défaut Probabilité de détection 2
est détecté 60-90%
Les défauts sont (presque) toujours Probabilité de détection 1
détectés > 90%
(parfois uniquement
pour 100%)
9. Calculez le RPN et notez-le dans la colonne « RPN ».
Le RPN est calculé comme suit: SEV x OCC x DET.
10. Hiérarchisez la colonne RPN d'élevé à faible pour classer les causes.
Cela génère une liste des X prioritaires.
11. Générez des actions correctives et mettez-les dans la colonne « actions
recommended ».
Générez avec l'équipe des actions ciblées sur :
- L'augmentation des probabilités de détection.
- La réduction de la fréquence.

169
- La limitation de la gravité en cas de défaillance.
Commencez par les causes en haut de la liste. Les actions correctives
pour remédier à ces causes auront le plus grand impact. Lorsque vous
utilisez une échelle 1-5 pour noter la gravité, la fréquence et la
détection, le score maximum est de 125. Une ligne directrice qui était
utilisée dans la plupart des cas était que les scores supérieurs à 100
devaient impérativement être traités, mais qu'il était aussi très
souhaitable de traiter tous les scores au-dessus de 80. Aujourd'hui, on
utilise souvent des scores 1-10, de sorte que le score maximum est de
1000, et que les seuils de 800 et 600, respectivement, peuvent être
utilisés comme lignes directrices.
12. Attribuez l'action à une personne qui en sera responsable dans la
colonne « Resp. ».
En outre, établissez un plan ensemble pour mener à bien l'action.
13. Inscrivez les actions qui ont été menées dans la colonne « mesures
prises » de la FMEA.
14. Recalculez le RPN après que les actions ont été menées. Suite à une
action, l'un des trois scores diminuera toujours (Severity, Occurrence,
Detection). Dans un seul cas, ce sera 2 sur 3.

La FMEA est un document vivant et une liste de priorités pour les actions qui
doivent être menées pour améliorer un processus. Après qu’une action a
été menée, l'équipe déterminera à nouveau la probabilité de détection, la
fréquence et la gravité, le RPN sera recalculé et la liste priorisée à nouveau.
La cause en question va descendre dans le classement et une cause
différente sera au sommet de la liste.

La FMEA est conçue pour prendre des actions avant la défaillance et non
après. Pour réussir une FMEA, des représentants des départements
impliqués dans le processus doivent participer. Parfois, des experts sur des
sujets spécifiques doivent être impliqués pour faire une estimation correcte.
La FMEA est un document vivant qui doit être revu avec l'équipe après
chaque action (ou après une série d'actions) pour fixer de nouvelles
priorités.
170
Dans cette phase du projet d'amélioration, la FMEA est un instrument pour
identifier et hiérarchiser les causes de variations de Y. Les actions à mener
pour remédier à la situation seront discutées dans la phase Améliorer.

6.2.5 Collecte de données des X


Dans le paragraphe précédent, nous avons discuté des outils qui aident à
l’identification et la priorisation des causes potentielles de variation. Les X
ont été priorisés sur la base des scores et des estimations des experts du
processus. Pour avoir une meilleure compréhension des X qui causent les
variations, des données devront être collectées chaque fois que possible
concernant ces X. Une partie de ces données peut avoir déjà été incluse
dans la phase de mesure, où, en plus du Y, des X de stratification et
éventuellement des X d’input et de processus ont également été collectés.
Pour les X pour lesquels aucune donnée n'est encore disponible, la même
procédure de collecte des données est appliquée que pour la collecte de
données des Y. Comme indiqué au paragraphe 3.3.1, étendez le plan de
collecte des données avec une liste de X prioritaires que vous souhaitez
examiner de plus près. Les données que vous collectez peuvent être utilisées
pour trouver des connexions entre X et Y dans l'analyse graphique.

Il arrive parfois qu'un X soit très difficilement mesurable. Pensez par


exemple à l'expérience de personnes qui sont actives dans le processus. On
essaie parfois par exemple de quantifier le nombre d'années de service ou le
degré de formation et d'utiliser ces données comme unité, pour pouvoir dire
quelque chose de quantitatif sur « l'expérience ». C'est généralement un
échec, car les années de service et le degré de formation ne disent pas tout
sur « l'expérience ». Par exemple, dans un tel cas, prenez d'abord les noms
des personnes comme X. Si vous observez un lien causal entre les noms et le
comportement de processus, vous pouvez ensuite étudier à un niveau plus
poussé pourquoi il y a des différences entre les personnes. Si vous
n'observez aucun lien, vous pouvez mettre l'expérience de côté en tant que
X important.

171
6.2.6 Analyse graphique de données
Lors de la définition de la capacité de processus, une première analyse des
données Y du projet est réalisée. Ces données peuvent déjà donner une idée
des X qui jouent un rôle dans la variation du Y. Les outils graphiques suivants
peuvent donner des indications pour trouver les causes :

Histogramme des données Y pour données continues

Figure 6.6

Histogram of Dimension
80 Mean 600,0
StDev 1,402
N 300
70

60

50
Frequency

40

30

20

10

0
596,8 598,4 600,0 601,6 603,2 604,8

• Plusieurs pics dans l'histogramme peuvent fournir des indications


concernant les sous-groupes.
• Lorsque la moyenne est loin de l'objectif, cela peut être une raison pour
chercher la cause première (X).
• La diffusion totale est plus grande suite au glissement des sous-groupes,
cela donne lieu à des études spécifiques sur les causes de cette
diffusion.

172
• Une distribution anormale quand on s’attend à une distribution
normale peut être un motif d'examen des causes possibles au niveau
des X d’input ou de stratification.

Boîte à moustaches

Figure 6.7

Maximum Q3

Q2 Q1
=Médiane
IQ
R

Minimum

La boîte à moustaches fournit un aperçu rapide des valeurs aberrantes dans


nos échantillons. Assurez-vous toujours qu'aucune erreur n’a été faite dans
les mesures. Essayez d'expliquer les valeurs aberrantes. Une cause X peut en
être à la base. Vous pouvez en apprendre comment ce n'est pas possible ou
comment cela se fait que le résultat ait justement été exceptionnellement
bon. Une boîte à moustaches se base sur les 3 quartiles (Q1, Q2 et Q3), qui
répartissent l'ensemble des données en 4 éléments de taille égale.

La boîte à moustaches est également très utile pour déterminer si les X de


stratification discrets affectent le résultat d'un Y continu. Elle permet de
visualiser la différence entre les groupes.

173
I-MR chart

Figure 6.8
I-MR Chart of Supplier 2
UCL=605,34
605
6

6
Individual Value

6
_
X=600,23
600
2
2
2 2
2 2

595
LCL=595,12
1 11 21 31 41 51 61 71 81 91
Observation

1 UCL=6,284
6
Moving Range

__
MR=1,923
2
2

0 2 222
LCL=0
1 11 21 31 41 51 61 71 81 91
Observation

Un I-MR Chart permet de visualiser le déroulement du Y dans le temps par


rapport aux limites de contrôle pour le Y, et illustre donc la stabilité du
processus. En outre, l'I-MR Chart surveille la variation et affiche en rouge un
avertissement lorsque les données affichent une tendance remarquable (par
exemple, le nombre de fois qu'une valeur mesurée est inférieure à la
moyenne ou des valeurs en dehors des spécifications).

Des tendances remarquables, des fluctuations rapides ou des glissements


des valeurs de mesure du Y sont des raisons de regarder de plus près si un X
spécifique en est à la base et peut souvent entraîner une correction.

174
Multi-Vari Chart

Figure 6.9

Multi-Vari Chart for sales by region - packaging


region
1100
1
2
1000 3

900

800
sales

700

600

500

400

color plain point of sale


packaging

Si vous souhaitez cartographier plusieurs X à la fois pour un Y et que ces X


s’influencent l’un l'autre, le Multi-Vari Chart est l'outil le plus approprié. Un
Multi-Vari Chart n'est pas toujours simple à interpréter. Vous devez réaliser
que vous voyez deux facteurs varier en même temps, un sur l'axe des X
(conditionnement dans ce cas) et un dans la légende (région dans ce cas).
Les symboles indiquent les moyennes. La ligne rouge illustre les symboles
pour les ventes moyennes pour les divers conditionnements. Les lignes
noires avec les symboles indiquent aussi les ventes moyennes par région,
pour le conditionnement donné.

Voici un exemple (figure 6.9) avec 2 X. Dans Minitab, ce graphique est


d'ailleurs plus ou moins caché sous les outils de qualité. (Stat > Quality Tools
> Multi-Vary Chart)

175
Diagramme de Pareto

Figure 6.10

Pareto Chart of Type Fout


2000

100

1500 80

Percent
Aantal

60
1000

40

500
20

0 0
Type Fout Sent to wrong address Late Wrong Form Used Not Complete
Aantal 834 550 337 99
Percent 45,8 30,2 18,5 5,4
Cum % 45,8 76,0 94,6 100,0

Le diagramme de Pareto peut être utilisé pour visualiser les défauts les plus
fréquents. La catégorie la plus fréquente indique généralement un X sous-
jacent. Ce graphique est lui aussi caché dans Minitab sous les outils de
qualité, et donc pas sous les graphiques.

6.3 Utilisation des instruments


La ceinture verte ou noire qui dirige le projet décide quels outils examinés
en 6.2 utiliser. Tous les outils ne doivent être utilisés dans chaque projet
pour déterminer les causes. La disponibilité de données historiques ou le
type de processus (administratif ou technique) peut déterminer le choix des
outils à utiliser. La cartographie détaillée des processus, avec le diagramme
Cause & Effet et/ou la FMEA, constituent les instruments les plus utilisés
dans cette phase. La cartographie détaillée des processus est adaptée pour
l'analyse du processus de pratiquement chaque processus transactionnel. Le
diagramme cause & effet peut être utilisé pour tous les types de projets et
176
est souvent combiné dans les processus transactionnels avec l'analyse de
processus détaillée. La FMEA est surtout adaptée pour l'analyse approfondie
des processus techniques et des processus transactionnels automatisés
approfondis. Cette dernière est souvent appliquée dans les problèmes
« induits par les incidents ». Il s'agit de problèmes qui surviennent de temps
en temps et pour lesquels on dispose de trop peu de données pour
l'application des méthodes statistiques (que nous développerons dans les
chapitres suivants).

S'il n'est pas possible d'obtenir le résultat souhaité (liste des X potentiels)
avec ces outils, d'autres instruments peuvent être utilisés. Il peut ressortir
des analyses initiales que les données collectées sont insuffisantes pour être
capable d’identifier les causes plus profondes. Dans ce cas, des données
supplémentaires doivent être recueillies et nous retournons à la phase de
mesure.

177
6.4 Exercices

Diagramme Cause & Effet


Faites un diagramme de cause à effet dans Minitab pour au moins 8 X qui
contribuent potentiellement au Y (de votre projet).
Assurez-vous d'utiliser au moins 4 des catégories suivantes :
(Homme, Matériaux, Machines, Méthode, Mesure et Environnement)

Remplissez le Y et les X dans Minitab et présentez le diagramme à la classe.

Matrice Cause & Effet


En équipe de deux, faites une matrice cause et effet dans Excel pour les X et
Y de l'exercice précédent.
Utilisez l’exemple de matrice cause & effet que vous avez reçu
numériquement.

Graphiques
Comment sont appelés les graphiques présentés ci-dessous et à quoi
servent-ils ?

178
Figure 6.11

# Nom Fonction
A
B
C
D
E

179
180
CHAPITRE 7 : DETERMINER LES CAUSES
PREMIERES

7.1 Introduction
Dans le chapitre 6, nous avons cartographié les causes potentielles de la
variation dans l'output de processus Y. Dans ce chapitre, nous en examinons
les causes principales. Nous voulons étayer la sélection des causes
premières par des données. En préparation de ce chapitre, nous vous
recommandons de commencer par lire l'Annexe 3 sur les tests d’hypothèse.

Dans les paragraphes suivants, nous discuterons de la procédure pour


identifier les causes premières de façon plus détaillée. En outre, nous
fournissons des lignes directrices pour l'utilisation des bons tests
statistiques. Le résultat de cette étape est la décision déterminant quels
sont les X possibles, les X vitaux, qui seront traités dans le reste du projet, et
quels sont les X qui n'en feront pas partie et qui ne seront donc pas abordés.

7.2 Des causes potentielles aux causes premières


La figure 7.0 illustre la procédure qui est suivie pour réduire la liste des
causes potentielles aux causes premières.

Dans ce chapitre, l'accent est mis sur la sélection et l'exécution du bon test
afin de vérifier vos hypothèses.

181
182
7.3 Tester les hypothèses

7.3.1 Sélectionner les tests des hypothèses


Les tests statistiques sont utilisés pour démontrer une relation entre un
facteur d’influence X et la performance d'un processus Y. Il existe différents
tests statistiques. Choisir le bon test à utiliser dépend du type de données
de X et Y.
Figure 7.0

La figure 7.0 illustre les combinaisons les plus couramment utilisées des
types de données pour X et Y, avec les tests d'hypothèse correspondants. Il
ne manque que la régression pour les X continus et le Y continu dans
l'aperçu. Ces éléments disposent de leur propre menu dans l'Assistant de
Minitab. Le test de normalité est repris sous l'assistant « graphical analysis »
séparé.

183
7.3.2 Test de normalité
Le test de normalité est utilisé pour vérifier si un ensemble de données est
normalement réparti (ou si les éventuels sous-groupes d'un ensemble de
données présents sont à chaque fois normalement répartis). C'est important
parce que les analyses qui peuvent être réalisées pour les données
normalement réparties sont plus puissantes. Le test de normalité se penche
sur les éléments suivants:
JK Les données sont distribuées normalement.

J Les données ne sont pas distribuées normalement.


Si la valeur P < 0,05, les données sont distribuées anormalement, avec 95%
de fiabilité. Par exemple, un ensemble de données de la taille des
participants à une formation, feuille de calcul : taille participants
formation.mtw

Figure 7.1

Dans Minitab: Stat -> Basic Statistics -> Normality test

184
Cela donne le résultat suivant :

Probability Plot of Height


Normal
99
Mean 184,9
StDev 6,775
95 N 12
AD 0,175
90
P-Value 0,901
80
70
Percent

60
50
40
30
20

10
5

1
170 175 180 185 190 195 200 205

Figure 7.2 Height

La valeur P > 0,05, ce qui signifie que les données sont distribuées
normalement.
Sur l'axe Y du graphique, la répartition normale est exprimée en
pourcentage. 50% se trouvent au centre et les extrémités (1 et 99%) en sont
les plus éloignées. En utilisant cette échelle, une ligne droite est créée
lorsque la distribution est normale (c'est ce qu'on appelle le test « du crayon
gras »).
Dans Minitab 17 et les versions suivantes, la même conclusion est tirée
(« normality test : Pass ») en utilisant Assistant -> Graphical Analysis ->
Graphical summary :

185
Graphical Summary of lengte
Summary Report

Distribution of Data
Examine the center, shape, and variability.
Descriptive Statistics
N 12
Mean 184,92
StDev 6,7751
Minimum 172
5th percentile *
25th percentile 180
Median 184
75th percentile 190
95th percentile *
Maximum 196
170 175 180 185 190 195 200

95% Confidence Intervals


Mean (180,61; 189,22)
Median (180,05; 190)
StDev (4,7994; 11,503)

Data in Worksheet Order Normality Test


Investigate any outliers (marked in red).
Decision Pass
P-value 0,901

190
lengte

180

170
0 2 4 6 8 10 12

7.3.3 Test t à 1 échantillon


Tableau 7.1

Type de Type de Nombre Nombre de Application


données données X de X sous-groupes
Y
Continue Discrète 1
Moyenne par 1
rapport aux
spécifications
Le test t à un échantillon est utilisé pour tester une moyenne par rapport à
une spécification. Le test peut être effectué de manière bidirectionnelle (qui
est le réglage par défaut), avec les hypothèses suivantes :

H K : µ = µK

HN : µO ≠ µK

Ou il peut être effectué de manière unidirectionnelle :


HK : µ ≤ µK (ou HK : µ ≥ µK )

HN : µ > µK (ou HN : µ < µK )


186
Dans l'exemple présenté ci-dessous, des lampes sont testées par rapport à
la valeur indiquée par le fournisseur. Le fournisseur indique qu'elles peuvent
rester allumées pendant 750 heures. Quatre lampes sont testées. Les
résultats sont les suivants :

748,24 heures, 743,08 heures, 759,78 heures, 742,30 heures

Minitab: Assistant -> Hypothesis tests -> 1 sample t test

Le résultat est:

1-Sample t Test for the Mean of hours


Figure 7.2 Summary Report

Does the mean differ from 750? Statistics


0 0,05 0,1 > 0,5
Sample size 4
Mean 748,35
Yes No 95% CI (735,52; 761,18)
P = 0,710 Standard deviation 8,0629
Target 750
The mean of hours is not significantly different from the target (p >
0,05).

Distribution of Data
Where are the data relative to the target?
750 Comments

• Test: There is not enough evidence to conclude that the


mean differs from 750 at the 0,05 level of significance.
• CI: Quantifies the uncertainty associated with estimating the
mean from sample data. You can be 95% confident that the
true mean is between 735,52 and 761,18.
• Distribution of Data: Compare the location of the data to the
target. Look for unusual data before interpreting the test
results.

740 750 760

Nous étudions évidemment la valeur P (P = 0,710 -> H0 n'est pas rejeté) et


nous pouvons aussi étudier l'intervalle de confiance (95% IC). Avec 95% de
certitude, nous pouvons dire que la durée de vie moyenne réelle des lampes
se situe entre 735,52 heures et 761,18 heures. 750 heures se situent
clairement dans l'intervalle de confiance, de sorte qu'il n'y a aucune
différence entre ce que le fournisseur affirme et ce que nous observons.

187
La question suivante est : quand peut-on conclure qu'un lot de lampes sur
lequel on effectue un test d’échantillon avec une population de 4 ne
correspond pas aux spécifications ? Ceci peut être calculé comme suit dans
Minitab et dépend de la puissance du test (voir pour cela l'Annexe 3). Dans
le Diagnostic Report, Minitab indique quelles différences sont significatives
pour quelle puissance (power) (pour 4 lampes).

Figure 7.3

Si nous connaissons d'ailleurs l'écart-type (environ) à l'avance et que nous


voulons préalablement déterminer la taille d'échantillon nécessaire sur la
base d'une différence pertinente (Difference), c'est aussi possible via Stat,
Power and Sample Size, puis (par exemple) 1-sample t-test.

7.3.4 Test t à 2 échantillons


Tableau 7.2
Type de Type de Nombre Nombre de Application
données données X de X sous-groupes
Y
Continue Discrète 1 2 Moyennes de 2
échantillons

Le test t à 2 échantillons est utilisé pour comparer les moyennes de deux


échantillons. Un échantillon est comparé à l'autre afin de déterminer s'ils
sont égaux ou non (bidirectionnel) ou si une moyenne est supérieure à
l'autre (unidirectionnel).
188
HK : µO = µ
HN : µO ≠ µ

HK : µO ≤ µ (ou HK : µO ≥ µ )

HN : µO > µ (ou HN : µO < µ )

Exemple : la durée de vie de deux séries de lampes de marques différentes.


Dans ce cas, l'hypothèse est la suivante :
HK : µO = µ

HN : µO ≠ µ

C’est un test bidirectionnel.


Dans un autre exemple (dans la feuille de calcul : Position fill cycle
time.mtw), on vérifie ci-dessous s'il y a une différence dans le délai pour
combler un poste vacant au cours « l’été », par rapport au « reste de
l'année ». Le test peut être réalisé via :

Minitab: Assistant -> Hypothesis test -> 2 sample t-test

Figure 7.4.
189
Le champ « Sample IDs » désigne la colonne sur la base de laquelle les 2
échantillons sont distingués. Dans ce cas Summer (été) est « on » ou « off ».
Nous étudions s'il y a une différence de délai entre « on » (l'été) et « off » (le
reste de l'année). Les résultats sont présentés dans la figure 7.5.

2-Sample t Test for cycle time by Season on/off


Figure 7.5 Summary Report

Do the means differ? Individual Samples


0 0,05 0,1 > 0,5 Statistics normal summer
Sample size 180 60
Yes No Mean 17,118 21,212
P < 0,001 95% CI (16,33; 17,91) (19,717; 22,707)
Standard deviation 5,3803 5,7872
The mean of normal is significantly different from the mean of
summer (p < 0,05).
Difference Between Samples
Statistics *Difference
Difference -4,0933
95% CI for the Difference
Is the entire interval above or below zero? 95% CI (-5,7767; -2,4099)
*Difference = normal - summer

Comments

-6,0 -4,5 -3,0 -1,5 0,0 • Test: You can conclude that the means differ at the 0,05 level of
significance.
• CI: Quantifies the uncertainty associated with estimating the
difference in means from sample data. You can be 95% confident
that the true difference is between -5,7767 and -2,4099.
Distribution of Data
• Distribution of Data: Compare the location and means of samples.
Compare the data and means of the samples.
Look for unusual data before interpreting the results of the test.
normal

summer

4 8 12 16 20 24 28 32

La valeur P est inférieure à 0,05. HK est rejeté. C'est également la conclusion


qui peut être tirée de l'intervalle de confiance. On y indique que la
différence des moyennes des deux groupes se situe entre -5,777 et -2,410.
Ces deux chiffres sont négatifs, il y a donc une différence significative (ce qui
est également le cas lorsque les deux chiffres étaient positifs). Si 0 fait partie
de l'intervalle de confiance, nous pouvons dire avec une certitude de 95%
qu'il n'y a pas de différence entre les deux moyennes. Dans cet exemple, le
délai en été est plus long qu'à d'autres périodes de l'année. Un autre onglet
important qui est généré est le Report Card. On y vérifie notamment si
l'échantillon était assez grand et si l'ensemble des données était
suffisamment normal. Vérifiez toujours le report card !

190
7.3.5 Test d'écart-type 2 échantillons
Tableau 7.3
Type de Type de Nombre Nombre de Application
données données X de X sous-groupes
Y
Continue Discrète 1 2 Répartition des
deux
échantillons
Le test d'écart type 2 échantillons est utilisé pour comparer les écarts-types
de deux échantillons. Un échantillon est comparé à l'autre afin de
déterminer s'ils sont égaux en termes de répartition (bidirectionnel) ou si
une répartition est supérieure à l'autre (unidirectionnel).
HK : σO = σ

HN : σO ≠ σ
HK : σO ≤ σ (ou HK : σO ≥ σ )
HN : σO > σ (ou HN : σO < σ )

Par exemple : les écarts dans la durée de vie des lampes de différentes
marques. Dans ce cas, l'hypothèse est la suivante :

HK : σO = σ

HN : σO ≠ σ

C’est un test bidirectionnel.

Dans l'exemple précédent que nous avons présenté, nous avons étudié le
délai moyen pour combler un poste vacant durant deux périodes : en été et
en dehors de l'été (dans la feuille de travail : Position fill cycle time.mtw).

Nous prenons à présent le même ensemble de données pour comparer les


répartitions. Le test peut être réalisé via :

191
Minitab: Assistant -> Hypothesis test -> 2 sample standard deviation

Figure 7.6

Nous étudions s'il y a une différence dans la répartition du délai entre l'été
et le reste de l'année (hors été). Les résultats sont présentés dans la
figure 7.7.

192
Figure 7.7 2-Sample Standard Deviation Test for cycle time by Season on/off
Summary Report

Do the standard deviations differ? Statistics normal summer


0 0,05 0,1 > 0,5 Sample size 180 60
Mean 17,118 21,212
Yes No Standard deviation 5,3803 5,7872
Individual 95% CI (4,891; 5,984) (5,031; 6,882)
P = 0,436

The standard deviation of normal is not significantly different from


summer (p > 0,05).

Standard Deviations Comparison Chart


Blue indicates there is no significant difference.

normal Comments

• Test: There is not enough evidence to conclude that the


summer
standard deviations differ at the 0,05 level of significance.
5,0 5,5 6,0 6,5 • Comparison Chart: Blue intervals indicate that the standard
deviations do not differ significantly.
• Distribution of Data: Compare the spread of the samples. Look
for unusual data before interpreting the results of the test.
Distribution of Data
Compare the spread of the samples.
normal

summer

4 8 12 16 20 24 28 32

La valeur P pour ce test est supérieure à 0,05. HK est accepté. Le délai en été
n'a pas de répartition significativement différente que dans le reste de
l'année.

7.3.6 Test T apparié


Tableau 7.4

Type de Type de Nombre Nombre de Application


données données X de X sous-groupes
Y
Continue Discrète 1 2 Moyennes
appariées de deux
échantillons
Le test t apparié est utilisé lorsque les objets qui doivent être mesurés
existent toujours par paires. Par exemple, pour comparer deux méthodes de

193
mesure pour le même échantillon, notamment lorsque des mesures en ligne
sont comparées à des mesures en laboratoire.
L'exemple que nous présentons ici implique une comparaison du
comportement de stationnement de deux voitures. Il est préférable de
laisser toujours la même personne garer les deux voitures dans la même
situation que d'avoir de nouvelles personnes qui garent une voiture. Les
délais de stationnement sont pour les deux voitures par personne notés sur
la même ligne (feuille de calcul : Carpark.mtw).

Les hypothèses:

HK : µO = µ

HN : µO ≠ µ

Minitab: Assistant -> Hypothesis test -> paired t-test


Figure 7.8

194
Figure 7.9
Paired t Test for the Mean of Car_A and Car_B
Summary Report

Do the means differ? Paired Differences


0 0,05 0,1 > 0,5
*Paired
Statistics Differences
Sample size 20
Yes No
Mean 1,9674
P = 0,034 95% CI (0,17075; 3,7641)
The mean of Car_A is significantly different from the mean of Car_B Standard deviation 3,8389
(p < 0,05).
*Difference = Car_A - Car_B

Individual Samples
Statistics Car_A Car_B
Mean 34,868 32,900
Distribution of the Differences Standard deviation 7,5907 7,2847
Where are the differences relative to zero?
0 Comments

• Test: You can conclude that the means differ at the 0,05 level
of significance. The mean of the paired differences is greater
than zero.
• CI: Quantifies the uncertainty associated with estimating the
mean difference from sample data. You can be 95% confident
that the true mean difference is between 0,17075 and 3,7641.
• Distribution of Differences: Compare the location of the
differences to zero. Look for unusual differences before
interpreting the results of the test.

-7,5 -5,0 -2,5 0,0 2,5 5,0 7,5 10,0

L'histogramme que vous voyez est basé sur les 20 valeurs que l'on obtient
en prenant par personne la différence dans les deux délais de stationnement
des deux voitures. Il s'agit donc d'une illustration des différences de temps
calculées par Minitab. Sur la base de l'échantillon, un intervalle de confiance
peut être calculé pour la population (base sur laquelle nous pouvons alors
fonder une conclusion générale). Puisque la valeur « 0 » n'est pas incluse
dans l’intervalle de confiance (mais pas de beaucoup), nous pouvons dire
avec une certitude d'un peu plus de 95% que la différence des temps de
stationnement des voitures ne peut pas être de « 0 », ce qui signifie qu'ils
sont différents.

Directement sur la base de la valeur P < 0,05, nous pouvons conclure qu’il y
a une différence entre le délai de stationnement des deux voitures.

195
7.3.7 1-Sample %Defective test (ou test 1
proportion)
Tableau 7.5
Type de Type de Nombre Nombre de Application
données données X de X sous-
Y groupes
Discrète Discrète 1 1 Comparer une
fraction (proportion)
avec une limite
donnée
Comme le test t à 1 échantillon, on compare avec ce test un échantillon et
une limite donnée. Dans le cas du test t à 1 échantillon, nous sommes
confrontés à des données continues. Avec ce test % défaut 1 échantillon,
nous avons affaire à des données discrètes sous forme de proportions
« erreur ». Cette proportion est indiquée par « p ». (Attention : p minuscule
en opposition à la valeur P que nous étudions à la fin d'un test pour rejeter
l'hypothèse nulle ou non). Ce test est utilisé dans les hypothèses sur un
échantillon et une conclusion sur la fraction qui est bonne ou erronée.
Aucun ensemble de données n'est nécessaire si l'on a déjà compté les
nombres bons et erronés. Uniquement la taille de l'échantillon et le nombre
d'erreurs (il est équivalent à la taille d'échantillon moins le nombre de bons).
L'intervalle de fiabilité est important dans ce test. Lors de ce test, il est basé
sur la répartition binominale. Cet élément indique ce que nous pouvons dire
de la fraction de la population totale sur la base de l'échantillon. Le test peut
être effectué d'une façon unidirectionnelle ou bidirectionnelle :

Unidirectionnelle

HK : p ≤ pK (ou HK : p ≥ pK )

HN : p > pK (ou HN : p < pK )

Bidirectionnelle

HK : p = A%
196
HN : p ≠ A%

Dans l'exemple présenté ci-dessous, nous discutons d'un test


unidirectionnel.

Un employé prétend que moins de 4% de ses factures sont incorrectes.


Nous prenons un échantillon aléatoire de 400 de ses factures pour
déterminer quelle est la fraction de factures erronées. Les hypothèses sont
les suivantes :

HK : p ≤ 4%

HN : p > 4%

400 factures ont été vérifiées et 24 d'entre elles sont erronées. L'affirmation
du collaborateur doit-elle être acceptée ou rejetée ? La fraction de
l'échantillon est de 6%. Cependant, l'intervalle de confiance sur la totalité de
la population est déterminant en ce qui concerne l'acceptation ou le rejet de
l'affirmation.
Minitab: Assistant -> Hypothesis Tests -> 1 Sample % Defective Test

197
Figure 7.10

Le résultat du test unidirectionnel est le suivant :

1-Sample % Defective Test for Facturen


Figure 7.11 Summary Report

Is the % defective greater than 4%? Statistics


0 0,05 0,1 > 0,5
Total number tested 400
Number of defectives 24
Yes No % Defective 6,00
P = 0,034 90% CI (4,17; 8,33)
Target 4
The % defective of Facturen is significantly greater than the target
(p < 0,05).

Comments

• Test: You can conclude that the % defective is greater than


4% at the 0,05 level of significance.
90% CI for % Defective • CI: Quantifies the uncertainty associated with estimating
Is the entire interval above the target? the % defective from sample data. You can be 90% confident
4 that the true % defective is between 4,17% and 8,33%, and
95% confident that it is greater than 4,17%.

4 5 6 7 8

198
Cela signifie que, après avoir procédé au test unidirectionnel, l'hypothèse
nulle doit être rejetée. Il commet beaucoup plus que 4% d'erreurs
(l'intervalle de confiance pour le nombre d'erreurs commises a une limite
inférieure de 4,17%). L'affirmation de 4% d'erreurs est donc en dehors de
l'intervalle de confiance.

Si nous réalisons toutefois le test bidirectionnel, le résultat est différent !

Figure 7.12
1-Sample % Defective Test for Facturen
Summary Report

Does the % defective differ from 4%? Statistics


0 0,05 0,1 > 0,5
Total number tested 400
Number of defectives 24
Yes No % Defective 6,00
P = 0,074 95% CI (3,88; 8,80)
Target 4
The % defective of Facturen is not significantly different from the
target (p > 0,05).

Comments

• Test: There is not enough evidence to conclude that the %


defective differs from 4% at the 0,05 level of significance.
95% CI for % Defective • CI: Quantifies the uncertainty associated with estimating
Is the entire interval above or below the target?
the % defective from sample data. You can be 95% confident
4 that the true % defective is between 3,88% and 8,80%.

4 6 8

L'intervalle de confiance (IC) indique donc que la fraction pour l'ensemble de


la population de factures du collaborateur se situe entre 3,88% et 8,80%. En
cas de tests bidirectionnels, il n'y a donc (tout juste) pas de raison de rejeter
l'affirmation du collaborateur. Sur la base de cet échantillon, il a raison.
Nous constatons donc qu'un test unidirectionnel entraîne dans certains cas
limites plutôt un résultat significatif (rejet hypothèse) par rapport à un test
bidirectionnel. C'est généralement le cas.
199
7.3.8 2-Sample %Defective test (test 2 proportions)
Tableau 7.6
Type de Type de Nombre de Nombre de Application
données Y données X sous-
X groupes
Discrète Discrète 1 2 Comparer 2
fractions
Le test % défaut 2 échantillons compare deux fractions pour déterminer si
les pourcentages d'erreur sont égaux (bidirectionnel) ou si l'une d'elles est
plus grande que l'autre (unidirectionnel).
HK : pO = p
HN : pO ≠ p
HK : pO ≤ p (ou HK : pO ≥ p )
HN : pO > p (ou HN : pO < p )

Exemple
Vous voulez savoir si certains consommateurs qui renvoient un
questionnaire peuvent être influencés par le fait de leur envoyer un petit
cadeau avec le questionnaire. Le cadeau est envoyé avec la moitié des
questionnaires afin de déterminer si cela fonctionne. 200 questionnaires
sont envoyés, 100 avec le cadeau, 100 sans le cadeau. 78 personnes à qui on
a envoyé un cadeau ont renvoyé le questionnaire rempli, il y a donc
22 défauts. Parmi les personnes à qui on n'a pas envoyé de cadeau, 54 ont
renvoyé le questionnaire. Il y a donc 46 défauts.
Il s'agit d'un test bidirectionnel, de sorte que la possibilité que le cadeau
puisse avoir un effet négatif est laissée ouverte :
HK : pO = p

HN : pO ≠ p
Minitab: Assistant -> Hypothesis Tests -> 2 sample % defective

200
Figure 7.13

Le résultat :
2-Sample % Defective Test for Avec cadeau vs Sans cadeau
Figure 7.14 Summary Report

Individual Samples
Statistics Avec cadeau Sans cadeau
Do the % defectives differ?
Total number tested 100 100
0 0,05 > 0,5
Number of defectives 22 46
% Defective 22,00 46,00
Yes No 95% CI (14,33; 31,39) (35,98; 56,26)
P < 0,001

The % defective of Avec cadeau is significantly different from


the % defective of Sans cadeau (p < 0,05). Difference Between Samples
Statistics *Difference
Difference -24,00
95% CI (-36,70; -11,30)

*Difference = Avec cadeau - Sans cadeau

95% CI for the Difference Comments


Is the entire interval above or below zero?
• Test: You can conclude that the % defective differs at the 0,05 level
0
of significance.
• CI: Quantifies the uncertainty associated with estimating the
difference from sample data. You can be 95% confident that the true
difference is between -36,70% and -11,30%.

-20 0 20

La valeur P (P<0,001) est inférieure à 0,05, et l'intervalle de confiance


201
indique qu'il y a une différence, car 0 ne tombe pas dans l'intervalle. L'envoi
d'un cadeau a donc du sens.

7.3.9 Analyse de la Variance (ANOVA)


Unidirectionnelle
Tableau 7.7
Type de Type de Nombre Nombre de Application
données données de X sous-groupes
Y X
Continue Discrète 1 2+ Vérifier si les facteurs
de stratification
influencent le Y
L'ANOVA est appliquée pour vérifier si des facteurs de stratification discrets
influent sur le Y. Les facteurs peuvent par exemple être : la saison, le
département, l'emplacement, le type de produit. Ces facteurs divisent
l’ensemble des données en sous-groupes. L'ANOVA est soutenue par des
analyses graphiques dans Minitab. L'ANOVA compare les moyennes Y des
différents groupes les uns aux autres.
L'hypothèse est toujours double :
HK : µO = µ = µH =… (il n'y a pas de différences entre les moyennes des
différents groupes).
HN : µO ou µ ou µH …≠ µO ou µ ou µH … (au moins un groupe est différent
autre).
Lors d'une ANOVA unidirectionnelle, suivez la procédure suivante :
1. Décrivez le problème que vous souhaitez étudier.
2. Déterminez l'hypothèse nulle et l’hypothèse alternative.
3. Contrôlez :
- L'indépendance (est-ce un échantillon aléatoire).
- Si des données de mesure étrangères sont présentes (« unusual
data »).
- Si l'échantillon est assez grand (la directive pour le nombre par groupe

202
est de 15, l'assistant dans Minitab donne un avertissement sous les
15 mesures par groupe).
- Si la distribution des sous-groupes est répartie normalement.
4. Générez les graphiques de l'ANOVA et l'output.
5. Tirez les conclusions.

Exemple
1. Description du problème :
Déterminez si la saison a un impact significatif sur le nombre de jours
qu'il faut pour combler un poste vacant.
2. Les hypothèses :

HK Il n'existe aucune différence dans le nombre moyen de jours qu'il faut


pour combler un poste vacant par saison.
HN Il existe une différence dans le nombre moyen de jours qu'il faut pour
combler un poste vacant par saison.
3. Contrôles
Il s'agit d'un échantillon aléatoire. Nous contrôlons la taille de
l'échantillon et la variation avec les résultats de l'ANOVA. Pour la
répartition normale des sous-groupes, on réalise en une fois 4 tests de
normalité à l'aide de Graph > Probability Plot > Multiple :
Figure 7.15 Probability Plot of cycle time
Normal - 95% CI
99,9
Season1-4
autumn
99
spring
summer
95
winter
90
80 Mean StDev N AD P
70 16,40 5,006 60 0,529 0,170
Percent

60 16,85 5,275 60 0,143 0,969


50
40 21,21 5,787 60 0,369 0,417
30 18,11 5,774 60 0,546 0,154
20
10
5

0,1
0 10 20 30 40
cycle time
Worksheet: POSITION FILL CYCLE TIME.MTW

203
Les valeurs 4P sont toutes >0,05 : les sous-groupes sont normalement
distribués.
4. Générez l'output ANOVA
Minitab: Assistant -> Hypothesis Tests -> one way ANOVA ->

Figure 7.16

Résultats:
One-Way ANOVA for cycle time by Season1-4
Figure 7.17 Summary Report

Do the means differ? Which means differ?


0 0,05 0,1 > 0,5 # Sample Differs from
1 autumn 4
Yes No 2 spring 4
P < 0,001 3 winter 4
Differences among the means are significant (p < 0,05). 4 summer 1 2 3

Means Comparison Chart


Red intervals that do not overlap differ. Comments

• Test: You can conclude that there are differences among the
means at the 0,05 level of significance.
autumn
• Comparison Chart: Look for red comparison intervals that do
not overlap to identify means that differ from each other.
Consider the size of the differences to determine if they have
practical implications.

spring

winter

summer

15,0 17,5 20,0 22,5

204
5. Tirez des conclusions
Nous voyons que l'été se distingue. La question est de savoir si l'été est
significativement différent. Nous voyons dans les résultats une valeur P
<0,05 : le HK est rejeté : il existe au moins une saison dont le délai moyen est
significativement différent de celui d'au moins une autre saison. Le
graphique des intervalles de confiance indique que la moyenne de l'été est
différente de celle des autres saisons. Lorsque les IC des facteurs individuels
(saisons) se chevauchent, il n'y a pas de différence significative (comme c'est
le cas pour le printemps, l'automne et l'hiver). Quand il n'y a pas de
chevauchement, il y a une différence significative (comme pour l'été par
rapport aux autres).

Minitab nous donne un Report card pour le contrôle des conditions afin de
pouvoir réaliser le test : les unusual data : un point de mesure étrange est
constaté. Vérifiez s'il ne s'agit pas d'une erreur de mesure. Le nombre de
points de données (N=60 pour chaque groupe) est largement suffisant.
Normalité : suffisante. Variances égales : à partir du Minitab 17, un autre
contrôle (méthode de Welch) est utilisé, de sorte qu'elles ne doivent plus
être égales.

Les contrôles sont générés automatiquement dans la figure 7.16 :


Figure 7.18

205
La valeur aberrante qui est mentionnée sous la rubrique « Unusual Data »
peut être trouvée dans les données de la figure 7.19, qui est également
générée :

Figure 7.19
One-Way ANOVA for cycle time by Season1-4
Diagnostic Report

Distribution of Data Data in Worksheet Order


Compare the location and spread. Investigate any outliers (marked in red).

autumn autumn
30

15

0
spring spring
30

15

0
summer summer
30

15

0
winter winter
30

15

0
8 16 24 32

7.3.10 Test des écarts types


Lorsque l'ANOVA ordinaire compare les moyennes de plusieurs sous-
groupes, le test des écarts-types fait de même, mais pour la répartition des
sous-groupes. Il s'agit d'un test utile, surtout pour les projets Six Sigma qui
tentent de réduire la répartition d'un processus. L'exécution est la plus
simple à l'aide de l'assistant.
Tableau 7.8
Type de Type de Nombre Nombre de Application
données données de X sous-
Y X groupes
Continue Discrète 1 2+ Tester si la répartition des
facteurs (de stratification)
influence le Y.

206
Figure 7.20

L'exécution est équivalente à l'ANOVA précédemment traitée. La principale


différence est toutefois que le résultat de ce test (à l'aide de la vapeur P)
indique si les répartitions des sous-groupes sont égales (hypothèse nulle) ou
différentes (hypothèse alternative).

207
Le résultat est commenté dans l'Assistant.
Standard Deviations Test for cycle time by Season1-4
Summary Report

Do the standard deviations differ? Which standard deviations differ?


0 0,05 0,1 > 0,5 # Season1-4 Differs from
1 autumn
Yes No 2 spring
P = 0,692 3 summer None Identified
Differences among the standard deviations are not significant (p > 0,05). 4 winter

Standard Deviations Comparison Chart


Blue indicates there are no significant differences. Comments

• Test: There is not enough evidence to conclude that there are differences among the
standard deviations at the 0,05 level of significance.
autumn • Comparison Chart: Blue intervals indicate that the standard deviations do not differ
significantly.

spring

summer

winter

4 5 6 7

Figure 7.21

7.3.11 Analyse de la Variance (ANOVA)


bidirectionnelle
Tableau 7.9
Type de Type de Nombre Nombre Application
données données de X de sous-
Y X groupes
Continue Discrète 2
Vérifier si les facteurs de 2+
stratification influencent Y ou
s'influencent mutuellement.
En principe, l'ANOVA bidirectionnelle (que l'on trouve dans Minitab jusqu'à
la version 16 incluse) fait la même chose que l'ANOVA unidirectionnelle,
mais pour deux X différents en même temps. Dans l'exemple suivant, la
région et le type d'emballage sont examinés comme X (facteur) et avec un
chiffre d'affaires en output (Y). Ce test n'est pas (encore) réalisé avec
l'assistant de Minitab. Dans Minitab 17, ce test doit être réalisé avec le
modèle linéaire général d'ANOVA.

Minitab 16: Stat -> ANOVA -> Two Way, et sous graphique Boîte à
moustaches : « Actif »
208
Minitab 17: Stat -> ANOVA -> General Linear Model -> Fit General Linear
Model, ensuite sous « Model… » ajouter le terme d'interaction en
sélectionnant Region et Packaging dans le champ « Terms » et cliquer sur
« Add ».
La boîte à moustaches peut être créée séparément via Graphs, Boxplot, one
Y with Groups. Sous Data View, la Mean Connect Line peut être ajoutée et
vous pouvez indiquer que « Region » doit être traitée comme variable
attribut (c'est-à-dire discrète).
Figure 7.22a
Boxplot of sales
1200

1000

800
sales

600

400

200
packaging
l or ai
n
al
e lo
r
ai
n
al
e l or ai
n
al
e
co pl fs co pl fs co pl fs
to to to
in in in
po po po
region 1 2 3

Worksheet: 2way anova example.MTW

209
Figure 7.22b et 7.22c

L'interprétation des résultats est conforme (deux fois) à une ANOVA


unidirectionnelle (qui a été réalisée ci-dessus). L'ANOVA bidirectionnelle
indique aussi une valeur P pour l'interaction qui se situe entre les deux X
(région et conditionnement). L'hypothèse nulle est ici : il n'y a rien, il n'y a
pas d'interaction. Étant donné que la valeur P = 0 pour l'interaction, il existe
une interaction entre la région et l'emballage. Cela signifie que certains
types d'emballages donnent de meilleurs résultats dans certaines régions
que d'autres types dans ces régions, et que d'autres régions préfèrent un
autre type d'emballage.

7.3.12 Test de Kruskal-Wallis Tableau 7.10


Type de Type de Nombre Nombre de Application
données données de X sous-groupes
Y X
Continue Discrète 1 2+ Comparer les
médianes
Le test de Kruskal-Wallis est appliqué à des données continues qui ne sont
pas distribuées normalement. Au lieu des moyennes, les médianes sont
comparées les unes aux autres. Outre, le test de Kruskal-Wallis, il existe
d'autres tests de sous-groupes avec une distribution anormale. Par souci
d'exhaustivité, nous allons les nommer ci-dessous. Nous ne les traiterons
pas dans cet ouvrage :
210
• Signe à 1 échantillon
• Wilcoxon à 1 échantillon
• Mann-Whitney
• Test de la médiane de Mood
• Friedman
Comme mentionné ci-dessus, nous nous limitons au test de Kruskal-Wallis.
L'hypothèse est formulée comme suit :

HK : MO = M = MH =… (il n'y a pas de différence entre les médianes des


groupes)
HN : MO ou M ou MH …≠ MO ou M ou MH … (au moins 1 groupe s'écarte des
autres)
Exemple 1
Quatre départements de ventes utilisent quatre techniques de vente
différentes. La question est de savoir si l'une des techniques est plus efficace
que les autres.

Minitab: Stat -> Nonparametrics -> Kruskal-Wallis

`Figure 7.23
Résultat:

211
Interpréter les résultats :

La valeur P > 0,05, ce qui signifie que HK doit être accepté. Il n'y a pas de
différence parmi les diverses méthodes. On peut voir dans la colonne avec
les valeurs Z dans quelle mesure les sous-groupes divergent. La règle
historique veut que si la différence dans les valeurs Z entre deux sous-
groupes est supérieure à 3, ils diffèrent significativement l'un de l'autre.
Dans l'exemple, la valeur Z la plus élevée est de 1,11 et la plus faible de
-1,19. Il y a donc une différence de 2,30. Le test n'est donc pas significatif
(valeur P = 0,565). Tirer des conclusions sur la base de la valeur P est
toutefois suffisant actuellement.

Exemple 2
Y a-t-il une différence dans la croissance des plantes selon les différents
traitements ? Trois types de traitement sont comparés. Vu que l’on compare
des médianes, la boîte à moustaches aide à mieux comprendre les
différences.(feuille : Kruskal-Wallis exercise.mtw)

Voici les résultats, ainsi que la boîte à moustaches comme dans la fenêtre de
session :

212
Figure 7.24

Boxplot of Growth
17

16

15
Growth

14

13

12

1 2 3
Treatment
Worksheet: Kruskal Wallis Exercise.MTW

Dans cet exemple, HK est rejeté, parce que P < 0,05.

Outre le test de Kruskal-Wallis, il existe d'autres tests pour les données qui
ne sont pas réparties normalement. On les appelle les « tests sans
répartition ». Voici un tableau illustrant un récapitulatif que vous pouvez
utiliser comme alternative pour les tests de données à répartition normale.

213
Tableau 7.11

Test sans répartition Test à répartition normale


1-sample Sign Paired t-test
1-sample Wilcoxon 1-sample t
Mann-Whitney 2-sample t
Kruskal-Wallis 1-way ANOVA
Friedman 2-way ANOVA

7.3.13 Test du Chi-carré


Tableau 7.12

Type de Type de Nombre Nombre de Application


données données de X sous-groupes
Y X
Discrète Discrète 1 2+ Comparer des
proportions

Le test du chi-carré est aux proportions ce que l'ANOVA est aux moyennes.
Ce test est appliqué lorsque plus de 2 proportions doivent être comparées.
Les hypothèses sont les suivantes :

HK : pO = p = pH =… (il n'y a pas de différences entre les proportions des


groupes).

HN : pO ou p ou pH …≠ pO ou p ou pH … (au moins 1 groupe s'écarte des


autres).

Pour effectuer le test, vous avez besoin de la taille de l'échantillon et du


nombre de défauts. Vous devez avoir au moins 5 défauts et 5 non-défauts
pour effectuer le test.

Exemple de Chi2 appliqué pour comparer plusieurs groupes de défauts.

Cinq collaborateurs différents font des factures. Lorsque l'on travaille, on


fait des erreurs. Dans ce cas, des erreurs dans les factures. Chaque erreur

214
est un défaut. Ci-dessous, les résultats pour les cinq employés :
Figure 7.25

Minitab : utilisation de l'assistant « Chi Square % defective ». Vous devez


utiliser les colonnes « Total » et « Défauts » ! Utilisez la feuille de calcul :
ChiSquare_Example.mtw.

Figure 7.26

215
Figure 7.27

Chi-Square % Defective Test for Test Items by X


Summary Report

Which % defectives differ?


Do the % defectives differ?
0 0,05 0,1 > 0,5 # X Differs from
1 Louise
Yes No 2 Joe
P = 0,285 3 Donna None Identified
Differences among the % defectives are not significant (p > 0,05). 4 Mary
5 Sid

% Defectives Comparison Chart


Blue indicates there are no significant differences. Comments

• Test: There is not enough evidence to conclude that there are differences among the %
Louise defectives at the 0,05 level of significance.
• Comparison Chart: Blue intervals indicate that the % defectives do not differ
significantly.

Joe

Donna

Mary

Sid

0 4 8 12 16

Figure 7.28
Dans les deux cas, cela donne la même valeur P de 0,285. C'est plus que
0,05. Nous devons accepter HK : il n'y a pas de différence significative entre
les collaborateurs dans les nombres de factures comptabilisées et les
erreurs.

216
Figure 7.29
Le Report Card de l'Assistant indique si le test est valide, autrement dit si
l'on satisfait à toutes les exigences pour le test. Il se pourrait que la collecte
de plus de données d'échantillons des mêmes populations donne un résultat
significativement différent.

Comparer des proportions avec une réponse nominale ou ordinale entre


différents groupes

Le test Chi-carré peut également être appliqué à une réponse nominale ou


ordinale entre différents groupes, ce que nous expliquons sur la base d'un
exemple.

Un échantillon a été prélevé parmi les trois employés de l'entrepôt et on a


déterminé combien d'erreurs de différents types ils ont faites (sur des
quantités de travail comparables). Nous voulons tester si la distribution des
différents types d'erreurs est différente pour chaque employé. X est
l'employé, Y est le type d'erreur.
HK : il n'y a pas de différence entre la distribution des valeurs de Y.

HN : il existe des différences entre la distribution des valeurs de Y.

Minitab: Assistant > Hypothesis Tests > « Chi-Square Test for Association »
Utilisez de la feuille de calcul : Chi2 Exercise.MTW

217
Figure 7.30

Via l'assistant, cela fonctionne comme suit : « Assistant > Hypothesis Tests >
Chi Square Test for Association ». Vous pouvez alors entrer les valeurs vous-
même ou sélectionner « get from current worksheet ». Ensuite, vous liez le
X et le résultat Y à la bonne colonne (ou ligne), éventuellement après
ajustement du nombre de lignes ou de colonnes avec les flèches
déroulantes.

Figure 7.31

Les résultats se présentent comme suit:

218
Figure 7.32
Chi-Square Test for Association: Outcomes by operator
Summary Report
Do the percentage profiles differ? Comments
0 0,05 0,1 > 0,5 • Test: You can conclude that there are differences among the outcome percentage
profiles at the 0,05 level of significance.
Yes No • Percentage Profiles Chart: Use to compare the profile for each value of operator and
P = 0,048 the average profile.
• % Difference Chart: Look for long bars to identify outcomes with the greatest %
Differences among the outcome percentage profiles are significant (p < 0,05). You can difference between observed and expected counts.
conclude there is an association between Outcomes and operator.

Percentage Profiles Chart


Compare the profiles.

Late
Average 24%
Wrong Quanti % Difference between Observed and
38%
Damaged Expected Counts
19% WrongDocs
19% Late
Operator A
Wrong Quanti
Damaged
Operator A 28%
WrongDocs
37%
25%
9%
Operator B

Operator B 20%
45%
11%
24% Operator C

Operator C 24%
31%
20%
-50% -25% 0% 25% 50%
24%
Positive: Occur more frequently than expected
0% 12% 24% 36% 48% Negative: Occur less frequently than expected

La valeur P = 0,048, ce qui signifie qu'elle est juste en dessous de 0,05 et que
HK doit être rejeté. Il existe une différence dans la distribution des erreurs.
Dans la figure de droite, vous pouvez voir que l'opérateur A produit
beaucoup moins de « mauvais docs » et beaucoup plus « d’endommagés ».
La figure en bas à droite est en fait une sorte de diagramme de Pareto, mais
avec des barres positives et négatives. Les barres à gauche indiquent qu'une
personne fait moins cette erreur que prévu (s'ils ont tous fait aussi bien ou
mal), tandis qu'une barre à droite signifie que cette erreur a plus été
commise. Cela donne comme option d'amélioration de rassembler
l'opérateur A et l'opérateur B pour apprendre l'un de l'autre : B peut
apprendre de A comment rédiger les documents, tandis qu'A peut
apprendre de B comment faire pour qu'il y ait moins d'endommagements
(les endommagements sont élevés chez A et faibles chez B).

Outre les résultats présentés dans la figure 7.32, Minitab fournit aussi les
résultats suivants dans les fiches d'output générées :

219
Figure 7.33

Le tableau indique ce qui a été mesuré (« Observed ») et ce qui serait


attendu en cas de répartition similaire (« Expected »).

Figure 7.34

La Report card vérifie la taille de l'échantillon et si valeur « prévue » est


suffisamment grande, elle doit être > 2.

7.3.14 Binary Fitted Line Plot


Type de Type de Nombre Nombre de Application
données données de X sous-groupes
Y X
Binaire Continue 1+ 2+ Influence des X
continus sur le Y binaire
Tableau 7.13

Le Binary Fitted Line Plot (BFLP) et l'analyse correspondante sont utilisés


comme les données Y, mais peuvent avoir deux résultats possibles et le X est

220
continu. Exemples de Y : vrai/faux, réussi/échoué, a répondu/pas de
réponse, fonctionne/est cassé. Le but de ce test est de déterminer si les
inputs continus (les X) contribuent de manière significative et ainsi prévoir
un certain résultat pour le Y. Le BFLP permet également de quantifier
l'impact de X sur un Oui ou un Non pour Y. Hypothèse :

HK X n’a pas d’influence sur le résultat oui/non de Y.

HN X a une influence sur le résultat oui/non de Y.

La procédure suivie avec le BFLP :

1. Organisez vos données Y dans une colonne avec un résultat binaire


(réussi/échoué, 0/1, go/no go)
2. Représentez les données à l'aide d'un Binary Fitted Line Plot (dans
Minitab).
3. Analysez les résultats graphiquement et analytiquement :
- Y a-t-il une courbe en S (ou Z) ?
- Quelle est la comparaison pour déterminer le résultat Y depuis X ?
- Quelle est la valeur P ?
- Un calcul des probabilités de succès.

Exemple

Nous étudions si le temps qu'ont les collaborateurs pour compléter les


dossiers (par exemple dans un call center) influe sur la qualité. Un dossier
peut être « bon » ou « pas bon ». Nous avons enregistré le temps de
traitement des collaborateurs en minutes et nous avons vérifié à l'aide d'un
échantillon si les dossiers comportaient des erreurs ou non.

La feuille de calcul nécessaire est : Binairy Logistic RegressionFR.MTW

L'inscription des données et la vérification de la présence d'un lien se font


via :

Minitab: Stat -> Regression -> Binary Fitted Line Plot


221
Figure 7.35

Figure 7.36

Binary Fitted Line Plot


P(BON) = exp(-7,77 + 0,316 Minutes)/(1 + exp(-7,77 + 0,316 Minutes))

1,0

0,8
Probability of Event

0,6

0,4

0,2

0,0

20 30 40 50 60
Minutes

222
Nous cherchons un S ou un Z dans la courbe afin de vérifier s'il y a une trans-
ition des mauvais vers les bons dossiers suite au temps de traitement. C'est
dans ce cas clairement visible. Il semble y avoir un lien évident entre les
minutes consacrées et un bon dossier. Nous trouvons la confirmation dans
la Session Window : nous allons contrôler ce point à l'aide de la valeur P :
Résultat dans la Session Window :
Binary Fitted Line: BON/PAS BON versus Minutes consacrées
Link function Logit
Rows used 20
Response Information
Variable Value Count
Right/Wrong Right 13 (Event)
Wrong 7
Total 20
Deviance Table
Source DF Adj Dev Adj Mean Chi-Square P-Value
Regression 1 15,40 15,3984 15,40 0,000
Minutes spent 1 15,40 15,3984 15,40 0,000
Error 18 10,50 0,5833
Total 19 25,90
Model Summary
Deviance Deviance
R-Sq R-Sq(adj) AIC
55,60%
59,46% 14,50
Coefficients
Term Coef SE Coef VIF
-7,77
Constant 3,61
0,316
Minutes spent 0,150 1,00
Odds Ratios for Continuous Predictors
Odds Ratio 95% CI

Minutes spent 1,3712 (1,0227; 1,8385)


Regression Equation
P(Right) = exp(-7,77 + 0,316 Minutes spent)/(1 + exp(-7,77 + 0,316 Minutes spent))

223
Cela donne toute une série de résultats dans la Session Window et nous
allons vous expliquer les plus importants. Nous devons remonter dans la
Session Window pour en retrouver les plus intéressants. La partie ci-dessus
avec la bordure rouge contient la formule de la fonction de transition.
Précédemment, une valeur P (de 0,000) a été donnée, qui indique qu'il
existe un lien entre X et Y et que ce n'est pas un hasard. HK est rejeté : le
nombre de minutes de travail sur le dossier a une influence significative sur
la probabilité d'avoir un dossier sans erreur.
La comparaison qui calcule Y en tant que fonction de X figure ci-dessous.
Les coefficients sont complétés dans la formule :
Log (chances de réussite) = -7.796 + 0.3167 * nombre de minutes (x). Cela
permet de calculer (en complétant X) quelle est la probabilité d'avoir un
dossier sans erreur (Y) en y consacrant ce nombre de minutes de travail.
Pour obtenir la réponse, cette fonction doit être ajustée mathématiquement
grâce à la fonction Log qu'elle contient.
Par conséquent (avec les coefficients calculés par Minitab), la probabilité
d'avoir un bon dossier avec 20 minutes de temps de traitement est de
18,8% ; à 25 minutes, elle est de 53% ; à 30 minutes, elle est de 84,6% ; et à
40 minutes, elle est de 99%. Pour être certain à 95% que le dossier est bon,
nous devons y consacrer 34 minutes de travail.
7.3.15 Corrélation et régression
Tableau 7.14
Type de Type de Nombre Nombre de Application
données données de X sous-
Y X groupes
Continue Continue 1(+) NA Influence des X continus
sur Y continu
Une analyse de régression entre X continu et Y continu consiste en une
analyse de corrélation et de régression. Les hypothèses sont les suivantes :
HK X n'a pas d'influence sur le résultat de Y
HN X a une influence sur le résultat de Y

L'hypothèse porte sur la question visant à savoir s'il existe un lien ou non
entre X et Y. La régression sera traitée à l'aide de deux exemples.
224
7.3.15.1 Régression simple
Nous voulons savoir s'il existe un lien entre la quantité (pourcentage
pondéré) de revêtement appliqué sur une fibre et le régime (cf. figure 7.37).
Data file: « Finish on Yarn.mtw »

Figure 7.37

Couche extérieure
Rouleau d'application
Rouleau de
fibre
Pour étudier le lien, nous utilisons l'assistant de régression dans Minitab :

Figure 7.38
225
Nous complétons comme suit le Y et le X et nous laissons Minitab
déterminer le modèle :

Figure 7.39

Le résultat est éloquent :


Regression for %Finish vs RPM
Y: %Finish Summary Report
X: RPM

Fitted Line Plot for Quadratic Model


Y = - 4,162 + 0,8710 X - 0,01750 X^2
7
Is there a relationship between Y and X?
0 0,05 0,1 > 0,5
6
%Finish

Yes No
P < 0,001

The relationship between %Finish and RPM is statistically significant


5
(p < 0,05).

4
15 20 25
RPM

Comments

The fitted equation for the quadratic model that describes the
% of variation explained by the model relationship between Y and X is:
Y = - 4,162 + 0,8710 X - 0,01750 X^2
0% 100%
If the model fits the data well, this equation can be used to
predict %Finish for a value of RPM, or find the settings for RPM
Low High that correspond to a desired value or range of values for
R-sq = 97,01% %Finish.
97,01% of the variation in %Finish can be explained by the
regression model. A statistically significant relationship does not imply that X
causes Y.

Figure 7.40
226
Il y a clairement un lien significatif entre X et Y (P<0,001), c'est une
comparaison quadratique et la fonction Y=f(x) est donnée. Les autres
onglets fournissent des informations de contrôle supplémentaires. Vérifiez
toujours la report card. Elle indique dans ce cas que l'échantillon n'est pas
assez grand pour donner une évaluation précise de l'intensité de la
comparaison (R2). Minitab observe aussi que la ligne 16 doit être vérifiée par
rapport à une erreur de mesure.

7.3.15.2 Régression multiple


Pour un processus chimique, nous examinons l'influence de divers (donc
plusieurs) X continus, comme le débit, la température, la vitesse, le diluant
sur la viscosité d'un produit. Ces X peuvent également s’influencer l’un
l'autre. La feuille de calcul Minitab s'intitule : Viscosity.MTW
Nous optons à présent dans l'assistant de régression pour « Régression
multiple » et nous le complétons de telle manière que le Y est modelé par
les X.
Figure 7.41

227
Figure 7.42
Multiple Regression for Viscosity
Summary Report

Is there a relationship between Y and the X variables? Comments


0 0,1 > 0,5 The following terms are in the fitted equation that models the
relationship between Y and the X variables:
Yes No X1: Delustrant
P < 0,001 X4: Velocity
The relationship between Y and the X variables in the model is
statistically significant (p < 0,10).
If the model fits the data well, this equation can be used to predict
Viscosity for specific values of the X variables, or find the settings for
the X variables that correspond to a desired value or range of values
for Viscosity.
% of variation explained by the model
0% 100%

Low High
R-sq = 75,92%

75,92% of the variation in Y can be explained by the regression


model.

Viscosity vs X Variables
Delustrant Throughput Quench Temp Velocity

680

660

640

01 02 03 10 12 14 0 5 0 0 75 00
0, 0, 0, 2, 2, 2, 24 24 25 5,
5
5, 6,

A gray background represents an X variable not in the model.

Minitab cherche pour nous quels X contribuent significativement ou non au


Y, calcule la valeur P, définit la valeur R carrée de 75% (qui indique dans
quelle mesure le modèle explique la variation constatée au niveau du Y) et
vérifie si tout correspond avec les autres onglets.
INTERMEDE 1 : Attention : une relation entre deux variables ne signifie pas
nécessairement causalité entre les variables, comme l'illustre clairement la
figure suivante.
Fitted Line Plot

250
Populatie (in duizenden)

225

200

175

150

55 60 65 70 75
Aantal Ooievaars

Figure 7.43
228
INTERMEDE 2 :

Minitab recherche dans la régression multiple les liens (linéaires) entre les X
et le Y. La ligne la plus adaptée est définie (Y=aX+b, cf. explication à la Figure
7.44) et on détermine enfin si le lien est significatif (attention : aux USA et
au RU (et donc aussi dans Minitab), on utilise : Y=a+bX). Cela n'influe pas sur
les résultats, mais uniquement sur l'ordre.

Figure 7.44

Figure 7.45

229
La formule pour calculer la viscosité Y à partir des X est indiquée à la
figure 7.45.
Tout compte fait, le modèle trouvé est la comparaison la plus adaptée. On y
arrive en éliminant les X non significatifs du modèle et en calculant les liens
linéaires sur la base de ce qu'il reste.

Dans l'exemple que nous avons utilisé, nous avons choisi un modèle linéaire.
Dans certains cas, il y a des raisons de choisir un modèle différent.

7.4 Les causes premières


Au point 7.3, nous avons regardé de plus près la procédure de vérification
d'hypothèses pour déterminer les X vitaux et les causes premières. Le
résultat de la procédure et ce chapitre constituent une liste limitée de X sur
lesquels nous nous concentrons dans la phase d'amélioration.

7.5 Exercices
Distribution normale
a. Les données dans le graphique ci-dessous sont-elles distribuées
normalement?

230
Figure 7.46
Summary Report for Y
Anderson-Darling Normality Test
A-Squared 0,31
P-Value 0,547
Mean 44,447
StDev 14,096
Variance 198,702
Skewness 0,192653
Kurtosis -0,184297
N 240
Minimum 9,310
1st Quartile 34,300
Median 43,610
3rd Quartile 53,900
Maximum 83,300
95% Confidence Interval for Mean
15 30 45 60 75 42,655 46,240
95% Confidence Interval for Median
41,160 46,220
95% Confidence Interval for StDev
12,938 15,484

95% Confidence Intervals

Mean

Median

41 42 43 44 45 46

b. Pourquoi est-ce important ?

Ecart-type
Dans un ensemble de données à répartition normale, la moyenne est de 99
et l’écart-type de 3. Entre quelles valeurs se trouvent 68,26% des données ?

Type de données pour analyse


Pour les analyses suivantes, indiquez les données qui peuvent être utilisées :
Test statistique Type de données Type de données
Y X
Binary Fitted Line plot
Test t à 1 échantillon
Test d’égalité des
variances
Régression multiple
ANOVA bidirectionnelle
Tests de proportion et Chi

231
232
PARTIE 4 : AMELIORER

Dans la quatrième partie, la quatrième phase du DMAIC est abordée.


L'objectif de la phase Améliorer :

Identifiez les améliorations possibles et argumentez dans quelle mesure les


objectifs du projet seront réalisés avec ces améliorations.

Les deux étapes suivantes du plan en 12 étapes occupent une position


centrale dans la phase Améliorer :

1. Déterminer la solution optimale


2. Tester la solution

Après cette partie, vous serez en mesure de :

• Appliquer les techniques pour générer des solutions.


• Choisir la meilleure solution.
• Tester la solution pour voir si elle mène à l'objectif.
• Nommer les risques liés à la mise en œuvre de la solution.
• Réaliser un projet pilote de la solution proposée.

Après avoir terminé la phase d'amélioration, les éléments suivants seront


livrés :

• Une liste des solutions possibles


• Les solutions retenues
• Pilote ou plan de mise en œuvre

233
234
CHAPITRE 8 : DETERMINER LA SOLUTION
OPTIMALE

8.1 Introduction
Dans le chapitre précédent, les causes potentielles de variation de Y ont été
réduites aux causes premières, que nous traiterons. Dans ce chapitre, nous
cherchons la solution optimale pour gérer et limiter l'influence des causes
premières sur Y, ou pour les optimiser afin de s'assurer que l'output
corresponde plus étroitement aux exigences des clients. Ce chapitre se
concentre sur la production de solutions et le choix de la meilleure solution.

L'objectif est de développer une amélioration de processus entièrement


fonctionnelle qui a été testée par l'équipe projet et qui est prête à être
utilisée dans un environnement commercial réel. La solution optimale est
sélectionnée sur la base de :

• la performance prédite du processus


• les coûts
• les exigences de mise en œuvre
• les risques

Il existe deux stratégies de base pour parvenir à une solution :

• Conception d'expériences (optimisation du modèle) – Design Of


Experiment (DoE)
• Essais d’expériences (choisir la meilleure solution entre différentes
options) – Trial Experiments

DoE est particulièrement utile dans l'industrie. La méthode Trials


Experiments peut être appliquée à n'importe quel processus.

235
8.2 Design Of Experiments

8.2.1 Introduction DoE


La conception d'expériences (DoE) est utilisée pour construire un modèle
permettant de prédire la meilleure solution. Le modèle permet d'obtenir
une large vision sur tous les réglages possibles des X afin d'arriver à un
réglage optimal pour le Y. Une condition importante pour l'application de la
DoE consiste à ce que les X puissent être réglés indépendamment les uns
des autres. Le modèle prend en compte les interactions entre les X. Dans la
DoE, on utilise souvent le terme « facteurs », au lieu de X.

Le DoE est particulièrement utile lorsque vous avez un projet où plusieurs


facteurs peuvent être réglés indépendamment, sur plusieurs valeurs
possibles. Vous pourriez décider de procéder à toutes sortes d'expériences
au hasard, mais la DoE vous donne la possibilité d'obtenir autant
d'informations que possible avec quelques expériences, vous offrant un bon
modèle (mathématique) de la façon dont les différents facteurs contribuent
à l'output (qui, dans la DoE, est appelé « réponse »).

Plus le nombre de X que vous pouvez inclure est grand, plus vous
bénéficierez de l'approche systématique de la DoE.

236
8.2.2 Terminologie DoE
Dans ce paragraphe, les termes spécifiques à la DoE sont abordés plus en
détail.

Conception Le plan formel pour réaliser l'expérience. Ce plan


(expérimentale) : contient les choix en ce qui concerne les outputs
(réponses), les facteurs, les niveaux, les blocs et les
traitements. En outre, le plan contient des outils
tels que le blocage, la randomisation et la
réplication.

Facteurs : Variables (X) contrôlées ou non contrôlées, dont


l'influence sur la réponse (Y) est à l'étude dans
l'expérience. Les facteurs peuvent être quantitatifs
(continus) ou qualitatifs (discrets).

Réponse : L'entité à mesurer qui est utilisée pour quantifier le


résultat de la combinaison des facteurs à des
niveaux déterminés. La réponse est toujours le Y ou
l’un des Y.

Niveau (level) Les valeurs du facteur qui sont étudiées dans


l'expérience. Pour les facteurs quantitatifs, chaque
valeur choisie devient un niveau. Par exemple,
lorsque l'expérience est menée avec deux nombres
d'appels téléphoniques différents, ce facteur (taux
d'appel) a deux niveaux. Pour un facteur qualitatif,
le facteur simple (par exemple procédure standard)
a deux niveaux (procédure standard et procédure
non standard).

8.2.3 L’approche DoE


Dans ce paragraphe, nous abordons la procédure qui est suivie lors de la
conduite de la DoE.

237
1. Définir le problème
2. Définir l'objectif
3. Sélectionner l'output (réponse)
4. Sélectionner les facteurs d’input (X)
5. Sélectionner les niveaux de facteur
6. Sélectionner le dispositif expérimental
7. Collecter les données
8. Analyser les données
9. Tirer les conclusions

1. Définir le problème

Ici, vous pouvez utiliser les outils dont nous avons discuté lors de la phase de
définition, pour passer d'un problème (cf. VOC) à une description concrète
de ce que vous voulez améliorer.

Quel Y (réponse) voulez-vous mieux comprendre pour pouvoir l’influencer ?


Généralement, il s'agit de votre Y projet ou d'un Y secondaire.
Habituellement, il s'agit de rendement (yield), de pièces vendues (chiffre
d'affaires), de dimensions (distance), de critères de qualité, etc.

2. Définir l'objectif

La DoE peut avoir plusieurs objectifs. Voici un certain nombre de raisons de


procéder à une DoE :

• Trouver la relation entre les facteurs d’input (X) et les facteurs d'output
(Y).
• Séparer les causes premières des causes moins pertinentes.
• Trouver l'interaction entre les facteurs d’input et leur influence sur Y.
• Trouver le réglage optimal des facteurs d’input (les X).

238
3. Sélectionner l'output (réponse)

La réponse d'une DoE est en général le Y de votre projet. Cet élément a été
défini et opérationnalisé dans la phase de mesure. Dans le cas d'une DoE, le
Y doit être une entité continue, ou éventuellement un comptage.

4. Sélectionner les facteurs d’input (X)

Les facteurs d'input pour une DoE sont les causes de la variation du Y (donc
X). Ils sont inventoriés dans la phase d'analyse et sont ramenés aux causes
premières. Les facteurs (inputs) peuvent être soit continus soit discrets.

5. Sélectionner les niveaux de facteur

Lors de la sélection des niveaux de facteur, une distinction est faite entre les
données continues et discrètes.

Données continues : lorsque l'expérience est effectuée sur deux paramètres


différents, le facteur doit avoir (au moins) deux niveaux, par exemple deux
réglages de température.

Données discrètes (attributives) : lorsque l'expérience est réalisée avec deux


niveaux, par exemple nettoyage ou pas de nettoyage, ce facteur doit avoir
deux niveaux.

6. Sélectionner le dispositif expérimental

Le dispositif expérimental est fonction du nombre d'expériences. Le tableau


8.0 donne une ligne directrice.

239
Tableau 8.0

Nombre Type de concept Explication du concept


d’expériences
Elevé Etudes entièrement Toutes les expériences
factorielles possibles sont réalisées, à
2 niveaux par facteur
Méthodologie de Surface Ici, il y a plus de 2 niveaux
de Réponse (RSM) par facteur, et
généralement peu de
facteurs
Moyen Etudes factorielles Lorsque toutes les
expériences sont
réalisées, mais sans
inclure tous les facteurs
ou les niveaux désirés.
Faible Etudes de screening, Pour déterminer quels X
factorielles fractionnaires sont pertinents ou non à
(5 à 20 facteurs) partir de toute une série
de X.

Exemple d’expérience (étapes 1 à 6)

La sélection d'un type de concept expérimental est expliquée à l'aide d'un


exemple.

Un golfeur veut améliorer son jeu. Il joue avec deux types de clubs (Royal et
Custom), deux types de balles de golf (Nike et Dunlop) et sur deux types de
parcours de golf (un parcours protégé dans les bois, avec peu de vent, et un
parcours à la mer, avec beaucoup de vent). Ci-dessous, nous abordons les
étapes 1 à 6 pour concevoir l'expérience :

• Définissez le problème : le nombre de coups du golfeur est trop élevé.


(VOC).
• Définissez l'objectif : augmenter la distance du départ (CTQ).

240
• Sélectionnez l'output : la distance entre le té et l'endroit où la balle
atterrit (Y).
• Sélectionnez les facteurs d'input : clubs de golf, balles de golf,
conditions éoliennes (les facteurs qui ne peuvent être contrôlés doivent
être définis aussi, comme l'humidité, la hauteur de l'herbe, la forme du
golfeur, etc.).
• Sélectionnez les niveaux de facteur :
Tableau 8.1
Facteurs Niveau 1 Niveau 2
Clubs Royal Custom
Balles Nike Dunlop
Conditions éoliennes Beaucoup de vent Pas de vent

• Sélectionnez le concept expérimental.


• Un concept factoriel complet signifie que toutes les combinaisons
possibles sont testées pour réaliser une expérience. Dans l'exemple, les
huit combinaisons suivantes sont possibles :

Tableau 8.2
Club Balle de golf Conditions éoliennes
Royal Nike Pas de vent
Custom Nike Pas de vent
Royal Dunlop Pas de vent
Custom Dunlop Pas de vent
Royal Nike Beaucoup de vent
Custom Nike Beaucoup de vent
Royal Dunlop Beaucoup de vent
Custom Dunlop Beaucoup de vent

Le nombre d'expériences peut être calculé via 2G , où n est le nombre de


facteurs et 2 le nombre de niveaux. Effectuer toutes les expériences est
souvent fastidieux et coûteux. Si nous supposons que les interactions

241
d'ordre supérieur sont faibles ou négligeables, moins d’expériences
suffiront. C'est ce qu'on appelle un concept factoriel fractionnaire. Ce
concept est souvent appliqué au début du projet ou de l'analyse pour
dépister les X et rapidement séparer les causes premières de la variation des
causes moins pertinentes.

La figure 8.0 illustre un concept expérimental factoriel complet par rapport à


un concept expérimental factoriel fractionnaire :

Figure 8.0

Expérience factorielle complète Expérience factorielle fractionnaire

Dans le cas d'un concept factoriel fractionnaire, toutes les expériences ne


sont pas réalisées. Dans le cas du concept factoriel complet, c'est le cas.

Outre l'influence des facteurs sur l'output, les facteurs peuvent aussi
s’influencer les uns les autres. C'est ce qu'on appelle l'interaction et c’est
une notion importante dans la DoE.

Qu'est-ce que l'interaction : un exemple bien connu de l'interaction se


déroule dans la voiture. Pour définir la vitesse (Y) de la voiture (route plate,
pas de vent), nous avons deux facteurs (X), à savoir le niveau de
l'accélération et le niveau de la pédale d'accélérateur. Si l'accélération est à
un niveau supérieur, l'effet du niveau de la pédale d'accélérateur est plus

242
grand. L'accélération et le niveau de la pédale d'accélérateur interagissent
donc.

Principle of Sparsity of Effects :

D'une manière générale, il est supposé que la réponse d'un facteur sur Y
détermine 90% du résultat, et l'interaction de deux facteurs 10% de cela
tout au plus. L'interaction de trois facteurs détermine 1%, etc. Ce principe
est connu sous le nom de Principle of Sparsity of Effects (parcimonie des
effets) et est représenté comme suit dans le tableau 8.3.

Tableau 8.3

Interaction Contribution
Principaux effets du facteur A 90%
Interaction bidirectionnelle de AxB 9%
Interactions tridirectionnelles de 0,9%
AxBxC
Interaction quadridirectionnelle de 0,09%
AxBxCxD

Nous utilisons ce principe pour réduire le nombre d'expériences nécessaires.


Vous pouvez imaginer que, pour une expérience de 4 facteurs et 2 niveaux
par facteur, nous pourrions procéder à un total de 16 expériences (le
factoriel complet étant de 24 = 16). Pour gagner du temps et de l'argent,
nous voulons procéder à moins d'expériences, disons la moitié. La question
est : quelles sont les expériences que nous pouvons laisser de côté et celles
que nous devons garder (pensez à l'image du cube avec 8 ou 4 sommets
représentant les expériences). Pour déterminer quelles sont les expériences
à laisser de côté, nous dressons d'abord un tableau avec les 8 premières des
16 expériences. Un -1 désigne le niveau bas du facteur en question, tandis
que +1 indique le niveau élevé de ce facteur.

243
Nous établissons les expériences de manière à ce que AxBxC = D s'applique
toujours, parce que cela fournit une matrice joliment distribuée (que l'on
appelle orthogonale).

EXP. A B C D
1 1 1 1 1
2 1 1 -1 -1
3 1 -1 1 -1
4 1 -1 -1 1
5 -1 1 1 -1
6 -1 1 -1 1
7 -1 -1 1 1
8 -1 -1 -1 -1

Nous aurions pu tout aussi bien effectuer l'autre moitié des 16 expériences,
dans ce cas, la matrice aurait ressemblé à ceci (maintenant nous avons pris
AxBxC = -D)

9 1 1 1 -1
10 1 1 -1 1
11 1 -1 1 1
12 1 -1 -1 -1
13 -1 1 1 1
14 -1 1 -1 -1
15 -1 -1 1 -1
16 -1 -1 -1 1

Puisque nous avons précédemment abordé le principe de parcimonie des


effets, peu importe que l’on effectue le premier ou le deuxième ensemble
de 8 expériences. Ils nous donnent chacun une matrice bien répartie
(orthogonale) avec huit expériences où l'effet (sur Y) de l'interaction de
AxBxC coïncide avec l’effet (principal) D (ou -D) lui-même.
Dans les deux cas (1er ou 2e ensemble de 8 expériences), nous pouvons voir
les effets des effets principaux et des interactions bidirectionnelles sur Y,

244
mais pas des interactions tridirectionnelles sur Y, qui coïncident avec l'effet
de D. Nous qualifions cet état « d’aliasé » (ou « confondus »). Nous disons
alors : l'interaction tridirectionnelle AxBxC est aliasée (ou confondue) avec
D. On parle aussi d'interaction mixte.

Cependant, puisque nous avons estimé que l'effet d'une interaction


tridirectionnelle est un facteur 100 fois plus petit que l’effet principal, il
s'agit d'un risque calculé. Le résultat est que nous avons besoin de beaucoup
moins d'expériences que si nous devions mener à bien l'ensemble des 16
expériences. Si nous devions réaliser les 16 expériences, nous pourrions
déterminer les effets des interactions tridirectionnelles (AxBxC) séparément.
Parfois, « aliaser » peut causer des problèmes, auquel cas, vous pouvez
toujours décider de mener les 16 expériences au lieu de seulement 8. Nous
appelons cela le rabattement du concept. Dans cet exemple, vous passez
d'un concept factoriel semi-fractionné à un concept factoriel complet.

Dans le tableau suivant, nous avons également ajouté les termes


d'interaction des principaux effets, qui sont AxB, AxC, AxD, BxC, BxD et CxD.
Nous avons également ajouté AxBxC (que nous avons utilisé pour
sélectionner le D), et nous avons ajouté CxD. A y regarder de près, cela
s'avère être égal à AxB ! Apparemment, en laissant de côté 8 des 16
expériences, cela a non seulement pour conséquence que les effets de
AxBxC sont « aliasés » avec D, mais aussi que les effets de l'interaction
bidirectionnelle de AxB sont « aliasés » avec CxD !

EXP. A B C D AxB AxC BxC AxBxC CxD


1 1 1 1 1 1 1 1 1 1
2 1 1 -1 -1 1 -1 -1 -1 1
3 1 -1 1 -1 -1 1 -1 -1 -1
4 1 -1 -1 1 -1 -1 1 1 -1
5 -1 1 1 -1 -1 -1 1 -1 -1
6 -1 1 -1 1 -1 1 -1 1 -1
7 -1 -1 1 1 1 -1 -1 1 1
8 -1 -1 -1 -1 1 1 1 -1 1

245
Ce dernier point nous amène à la notion de Résolution DoE. La résolution
est le pouvoir distinctif d’un concept. Lorsque nous « aliasons » les
interactions tridirectionnelles avec des effets principaux et les interactions
bidirectionnelles avec d'autres interactions bidirectionnelles, nous appelons
cela un concept résolution IV (comme un aide-mémoire: le IV peut être
divisé en 3+1 ou 2+2).

Il y a aussi des concepts avec Résolution III, V, VI, etc.

La structure d'aliasage utilisée pour ceux-ci est présentée dans le


tableau 8.4 :
Tableau 8.4

Concepts Les effets de 1er ordre (effets principaux) sont mélangés


Résolution (aliasés) avec des interactions bidirectionnelles.
III Aucun des effets de 1er ordre n'est aliasé avec d'autres
effets de 1er ordre.
Concepts Les effets de 1er ordre sont aliasés avec des interactions
Résolution tridirectionnelles.
IV Il n'y a aucun effet de 1er ordre aliasé avec d'autres effets
de 1er ordre ou avec interactions bidirectionnelles.
Concepts Les effets de 1er ordre sont aliasés avec des interactions
Résolution V quadridirectionnelles, les interactions bidirectionnelles
sont aliasées avec des interactions tridirectionnelles.

La notation générale pour représenter un concept factoriel fractionnaire est


;:
la suivante : 2

K est le nombre de facteurs à étudier. 2;: est le nombre d'expériences. R


est la résolution. p exprime dans quelle mesure les expériences sont laissées
de côté en comparaison à un concept factoriel complet. Si p=1, nous faisons
la moitié des expériences ; si p=2, un quart ; si p=3, un huitième ; etc.

246
Minitab fournit des lignes directrices pour le nombre d'expériences, étant
donné le nombre de facteurs :

Minitab: Stat -> DOE -> Factorial -> Create factorial design -> display
available design
Figure 8.1

Dans la figure 8.1, on peut en déduire que le concept recommandé pour une
expérience de 5 facteurs est « semi-fractionné », car on obtient une
résolution V. En tout, 16 expériences (au lieu de 32) doivent être menées.
Pour concevoir cette expérience dans Minitab, rendez-vous sur :

Minitab: Stat -> DOE -> Factorial -> Create Factorial Design

247
Figure 8.2

Entrez le nombre de facteurs et cliquez sur « Designs ».

Figure 8.3

248
Nous n'avons pas besoin de points centraux ni de blocs, donc nous les
gardons à leurs valeurs par défaut. Plus tard, nous allons utiliser des points
centraux pour déterminer si nous pouvons tracer une ligne droite quand
nous déterminons si un effet linéaire sur Y dépend de X. Nous allons utiliser
les blocs pour nous assurer que nous passons moins de temps sur les
réglages entre les expériences.
Comme indiqué précédemment, les expériences factorielles fractionnaires
peuvent être « pliées », pour ajouter des sommets manquants au design et,
ce faisant, transformer un concept semi-fractionné en un concept factoriel
complet avec deux blocs. Le pliage peut donc être interprété comme l'ajout
de sommets manquants. Tout cela nous enseigne que, lorsque le nombre de
facteurs augmente, on a besoin de concepts factoriels fractionnaires pour
limiter le nombre d’exécutions. Quelques règles générales :

• Pour estimer les écarts-types, utilisez les répétitions sous la forme


de réplications.
• Lorsque P < 0,05, l'effet que vous voyez est important.
• Lorsque P > 0,05 et < 0,10, l'effet est moins important, mais il peut
encore être suffisamment significatif (et peut-être pertinent) pour
être inclus.

Etapes pour screener un concept DoE

D'une manière générale, le but d'un screening DoE consiste à découvrir les X
qui sont et qui ne sont pas pertinents. Surtout dans le cas des systèmes ou
des processus que vous ne connaissez pas bien, c’est un outil très utile pour
obtenir rapidement des informations sur les X dont vous aurez besoin dans
votre projet.

Dans ce cours, nous pratiquons le screening DoE avec un concept factoriel


fractionnaire avec 5 facteurs. Si le nombre de facteurs augmente beaucoup,
vous pouvez avoir recours à des modèles de résolution III, ce qui signifie
qu'il faut souvent utiliser des concepts Taguchi ou Placket Burmann. Ils

249
fonctionnent d’une façon similaire, mais ont été spécialement conçus pour
réduire les inconvénients des concepts Résolution III.

Conclusion :

Un plan d'expériences est un outil proactif. Une expérience bien conçue


peut fournir rapidement une bonne idée du processus. Les relations et les
interactions que vous trouverez vous aideront à prendre de meilleures
décisions.

7. Collecter les données

Après avoir créé le concept, il est temps de réaliser les expériences. Les
données mesurées pour Y dans l'expérience, qui étaient basées sur les
réglages pour les X correspondants, fournissent les informations pour
construire le modèle de processus.

Il est aussi théoriquement possible de procéder à une DoE basée sur des
données historiques. Cela nécessite des mesures qui peuvent, en quelque
sorte, servir de sommets au cube DoE. Il est à prévoir qu'il y aura plus de
bruit dans les données historiques par rapport aux expériences planifiées.
Les pièges lors de la conduite d'une DoE basée sur des données historiques
sont les suivants :

• Causalité : est-ce que l'impact de X sur Y que vous avez détecté


représente vraiment une relation de cause à effet ?
• Possibilités expérimentales : les données ne contiennent pas toutes
les expériences que vous auriez effectuées dans une expérience
planifiée.

Pour utiliser les données historiques pour construire un modèle, vous


commencez avec une analyse de données (data-mining) pour sélectionner
les données les plus pertinentes. Utilisez les données que vous utiliseriez si
vous meniez une expérience planifiée (les extrêmes, voir la figure 8.4).

250
Figure 8.4

Alignez les sources possibles de variation des X et créez le concept


expérimental avec des facteurs et des niveaux. Organisez votre feuille de
calcul comme si vous meniez une DoE et entrez les données historiques qui
correspondent aux paramètres de la DoE. Incluez aussi toutes les
réplications à chaque niveau de facteur. Tenez compte du fait que les
données historiques ne contiennent jamais des réplications exactes. (Les
réplications sont des mesures répétées sur le long terme, donc avec d'autres
réglages/mesures intermédiaires). Les repeats sont des mesures de
répétition qui sont réalisées consécutivement.

8. Analysez les données

Dans cette étape, le modèle est analysé sur la base des résultats des
expériences.

L’effet d’un facteur

L'exemple présenté ci-dessous contient une expérience à 3 facteurs,


2 niveaux avec les résultats (Y).

251
Tableau 8.5
Run A B C Y
1 -1 -1 -1 12,4
2 1 -1 -1 17,8
3 -1 1 -1 11,1
4 1 1 -1 12,2
5 -1 -1 1 13,2
6 1 -1 1 15,5
7 -1 1 1 14,1
8 1 1 1 12,1
moy.- 12,7
moy.+ 14,4
effet 1,7

L'effet du facteur A est déterminé comme suit :

Moy+ = le résultat de la moyenne de Y avec toutes les valeurs hautes de A,


ou:

17,8 + 12,2 + 15,5 + 12,1


Moy+ = = 14,4
4

Moy- = le résultat de la moyenne de Y avec toutes les valeurs basses de A


(conformément au calcul présenté ci-dessus, le résultat de cet exemple est
de 12,7).

L'effet de A est la différence entre moy+ et moy-. Dans ce cas 1,7. La


définition de cet effet est l'impact que ce facteur a sur l'output lors du
passage du niveau bas au niveau haut de ce facteur. Une hypothèse peut
être utilisée pour déterminer si cet effet est significatif :

JK : ]^_ − ]^: = 0 et J : ]^_ − ]^: ≠ 0

Les effets interactifs peuvent être calculés d'une manière similaire. Une fois
que les colonnes d'interaction de la matrice ont été générées, les mêmes
calculs sont effectués.

252
« L’orthogonalité » mentionnée plus haut (ce qui signifie que la matrice est
mathématiquement parlant parfaitement équilibrée) permet de calculer ces
effets le plus simplement possible. Si le design n'était pas orthogonal, les
calculs seraient beaucoup plus complexes, voire impossibles.

Sur la base d’un exemple, nous allons aborder le protocole pour l'analyse
des concepts expérimentaux. Le protocole contient les étapes suivantes :

Etape 1 : étude pratique des résultats

Etape 2 : étude graphique des résultats

Etape 3 : étude analytique des résultats

Exemple

Dans un processus de production de circuits intégrés (CI ou Circuits


intégrés), la DoE suivante a été créée et exécutée. L'objectif était
d'améliorer le rendement du processus de production. Dans le concept, les
5 facteurs suivants ont été examinés :

A = ouverture de diaphragme (petite, grande)


B = temps d’exposition (20% en dessous ou 20% au-dessus du nominal)
C = temps de développement (petit, grand)
D = dimension du masque (petit, grand)
E = temps de gravure (14,5 min, 15,5 min)

La fabrication de circuits intégrés est un processus qui présente beaucoup


de similitudes avec la photographie (analogique) traditionnelle. Une surface
(matrice) est éclairée avec une certaine quantité de lumière (le diaphragme
détermine la quantité de lumière en intensité et la durée d'exposition est
explicite). Avant l'éclairage, la matrice est exposée à un fluide de gravure,
qui provoque la dissolution de certaines couches (à graver) après l'éclairage.
Dans ce processus, le temps de développement (combien de temps est-ce
que le matériau doit être « fixé » pour s'assurer qu'il ne sera pas enlevé) et

253
la taille du masque (quelle est la taille des zones qui sont exposées à la
lumière) peuvent également jouer un rôle important.

En raison de contraintes budgétaires et de temps, il a été décidé d'utiliser un


concept 2a:O (screening) avec 16 exécutions. Voir la feuille de calcul ci-
dessous pour l’input (Integrated Circuits.MTW). Vérifiez les résultats.

Etape 1 : Etude pratique des résultats

Figure 8.5

Allez à :

Minitab: Stat -> Factorial -> Create factorial design

Choisissez 5 facteurs, sélectionnez factoriel demi-fraction (2a:O ) et créez le


concept.
La structure d'alias (quels effets ne peuvent plus être séparés suite au fait
qu'il ne s'agit pas d'un plan factoriel COMPLET) est la suivante :
254
Fractional Factorial Design
Design Summary
Factors: 5 Base Design: 5; 16 Resolution: V
Runs: 16 Replicates: 1 Fraction: 1/2
Blocks: 1 Center pts (total): 0
Design Generators: E = ABCD
Alias Structure
I + ABCDE
A + BCDE
B + ACDE
C + ABDE
D + ABCE
E + ABCD
AB + CDE
AC + BDE
AD + BCE
AE + BCD
BC + ADE
BD + ACE
BE + ACD
CD + ABE
CE + ABD
DE + ABC

Etape 2 : Etude graphique des résultats


Nous allons analyser les résultats sous forme graphique dans Minitab.
Ensuite, les analyses graphiques suivantes sont générées :
- Pareto & tracé de probabilité normale
- Tracés des effets principaux
- Tracés des effets d'interaction
- Tracés sur cube

Pareto & tracé de probabilité normale

Minitab: Stat -> DoE -> Factorial -> Analyze Factorial Design

Sélectionnez « Yield » comme réponse.

255
Figure 8.6

Cliquez sur « Graphs » et fixez sous les options le niveau de confiance à 90%.
Figure 8.7

256
Cochez « Normal » et « Pareto ». Alpha est à présent sur 0,1 (car nous ne
voulons pas directement déclarer comme « insignifiantes » les valeurs pour
P entre 0,05 et 0,10).
Ensuite, générez les graphiques.

Figure 8.8 Normal Plot of the Effects


(response is Yield; α = 0,10)
99
Effect Type
Not Significant
95 B
Significant
90 A Factor Name
C A Aperture Setting
80
AB B Exposure Time
70
C Develop Time
Percent

60
D Mask Dimension
50
E Etch Time
40
30
20

10
5

1
0 5 10 15 20 25 30 35
Effect
Lenth’s PSE = 0,9375

Figure 8.9 Pareto Chart of the Effects


(response is Yield; α = 0,1)
Term 1,89
B Factor Name
A A Aperture Setting
C B Exposure Time
AB C Develop Time
D Mask Dimension
DE
E Etch Time
AE
AD
D
CD
E
BC
AC
CE
BD
BE

0 5 10 15 20 25 30 35
Effect
Lenth’s PSE = 0,9375

257
Dans les deux graphiques, nous voyons quels facteurs et interactions ont le
plus d'influence. A l'aide de la ligne dans le graphique Pareto, nous voyons
aussi quels sont les éléments significatifs à un Alpha de 0,10. Dans le tracé
de probabilité normale, ils sont représentés par de petits carrés rouges, ce
qui signifie que la contribution de ces facteurs et interactions ne peut pas
être imputée au hasard. Ils s'écartent donc significativement du « hasard »
ou de la normalité.

En plus des graphiques aux figures 8.8 et 8.9, les tracés suivants peuvent
être générés :

Minitab: Stat -> DOE -> Factorial -> Factorial plots

Figure 8.10

Sélectionnez « Yield » comme réponse.

258
Vérifiez sous « Graphs » si les bons graphiques sont créés.

Figure 8.11

Attention : le réglage du tracé d'interaction dans Minitab 16 est un peu


différent :
Figure 8.12

259
Vérifiez si dans « Interaction plot » (sous « Options »), on a coché l'option :
« Display Lower Left Matrix ».
Figure 8.13

Choisissez Cube Plot sous Stat > DoE > Factorial > Cube Plot, et sélectionnez :
Data Means.
Main Effects Plot for Yield
Fitted Means
Aperture Setting Exposure Time Development Time Mask Dimension Etch Time
50
Mean of Yield

40

30

20

10
Small Large -0,2 0,2 30 45 Small Large 14,5 15,5

Figure 8.15

260
Vous trouverez ici les résultats du Main Effects Plot (tracé des effets
principaux), de l'Interaction Plot (tracé d'interaction) et du Cube plot (tracé
du cube).

Dans le tracé des effets principaux, on voit l'influence des 5 facteurs sur le
rendement. L'inclinaison de la ligne, de faible à élevé, renseigne dans quelle
mesure le Y (rendement) est influencé par cet élément.

Interaction Plot for Yield


Fitted Means
Aperture Set * Exposure Tim
60 Exposure
Tim
40 -0,2
0,2
20

Aperture Set * Development Exposure Tim * Development


60 Development
30
Mean of Yield

40 45

20

Aperture Set * Mask Dimensi Exposure Tim * Mask Dimensi Development * Mask Dimensi
60 Mask
Dimensi
40 Small
Large
20

Aperture Set * Etch Time Exposure Tim * Etch Time Development * Etch Time Mask Dimensi * Etch Time
60 Etch
Time
40 14,5
15,5
20

Small Large -0,2 0,2 30 45 Small Large


Aperture Set Exposure Tim Development Mask Dimensi

Figure 8.16
Dans le tracé des interactions, nous voyons les interactions possibles des
différentes paires de facteurs. Dans chaque petit graphique, vous pouvez
voir sur l'axe Y ce que le rendement a été, compte tenu des réglages des
deux facteurs auxquels le graphique se rapporte. Quand on voit que, par
exemple dans le graphique de la taille d'ouverture vs le temps d'exposition
(le graphique en haut à gauche), les lignes ne sont PAS parallèles, cela
signifie que le passage d'un facteur de faible à élevé lors d'un réglage de
l'autre facteur a un effet différent que lors de l'autre réglage de cet autre

261
facteur. Cela signifie qu'il y a interaction. Si les lignes sont parallèles, ce n'est
pas le cas et il n'y a donc pas d'interaction.

Figure 8.17

Cube Plot (data means) for Yield


45 63

52 30

22 15

8 10
15,5

Etch Time

60 44
14,5
34 50
0,2

Exposure Time 16 21
45
9Development Time 6
-0,2 30

Small Large
Aperture Setting
Small Large
Mask Dimension

Dans le tracé de cube, on voit quels sommets du cube ont été inclus dans les
expériences (et, par conséquent, ceux qui ne le furent pas) et quelles ont été
les valeurs mesurées de ces sommets dans l'expérience.

Etape 3 : Etude analytique des résultats

Lors de la génération du tracé de probabilité normale et du diagramme de


Pareto, Minitab présente l'output dans la fenêtre de session. Après un peu
de recherche, nous trouvons le tableau ANOVA. Cf. l'illustration ci-dessous.

262
Il n'y a pas de valeurs P incluses (seulement des astérisques), parce qu'avec
ce concept et cette résolution et avec ce nombre limité d'expériences, il n'y
a pas suffisamment de degrés de liberté pour être en mesure de tout
calculer. Dans le cas de 16 mesures, nous pouvons seulement calculer 15 (n-
1) données indépendantes, et dès que nous atteignons ce nombre, il n'y a
plus de degré de liberté pour calculer les valeurs P et, par exemple, les
erreurs (residual error). Cela signifie que, pour obtenir les valeurs P, nous
devons cesser de calculer un certain nombre de résultats moins pertinents.

Dans le modèle jusqu’à présent, tous les facteurs ont été inclus. Cependant,
nous nous intéressons aux causes premières de la variation. La question vise
à savoir quels sont les facteurs significatifs et quelles sont les interactions
significatives dans leur contribution au Y. La méthode pour arriver à
démontrer les facteurs significatifs à l'aide des valeurs P est la réduction du
modèle. Cela signifie que nous simplifions le modèle en supprimant un
263
certain nombre de termes moins importants (notamment les interactions).
Bien entendu, nous commençons par éliminer les termes avec le plus petit
effet. Quand on regarde le diagramme de Pareto, nous voyons une
transition après l'interaction AB. Les termes suivants ont un effet beaucoup
plus faible sur la réponse. La réduction du modèle se fait de la manière
suivante :

Minitab: Stat -> DOE -> Factorial -> Analyze factorial design

Cliquez sur « terms » et sélectionnez les termes les plus importants à inclure
dans le modèle. Nous ne supprimons pas les principaux effets, même s'ils
semblent moins importants, car sinon, leurs interactions ne peuvent plus
être calculées.

Figure 8.18

Cela donne le résultat suivant (voir figure 8.19) :

Figure 8.19

264
Pareto Chart of the Standardized Effects
(response is Yield; α = 0,1)
Term 1,86
Factor Name
B A Aperture Setting
B Exposure Time
C Development Time
A
D Mask Dimension
E Etch Time
C

AB

DE

0 10 20 30 40 50
Standardized Effect

Les termes en gras sont significatifs. Malgré le fait que les facteurs D et E
(dimension de masque et temps de gravure) ne soient pas significatifs, ils ne
peuvent pas être exclus du modèle, parce que leur interaction (DxE) est
importante, numériquement parlant. À la lumière du tableau Alias
susmentionné, nous pouvons conclure avec un degré relativement élevé de
certitude que ce n'est pas DxE, mais plutôt l'interaction AxBxC qui crée la
valeur significative ici.

265
Dans les résultats, on utilise parfois le terme : « coded units ». On entend
par là que l'on calcule avec les niveaux -1 et 1 pour les facteurs. Il arrive
parfois que les véritables valeurs des niveaux soient prises lors du calcul, et
alors, Minitab calcule le modèle en « uncoded units ». Ce n'est pas toujours
mentionné.

Le principe visant à exclure les termes avec le moins d'effet sur Y peut être
un processus d'essais et erreurs. La valeur P reste l'outil d'évaluation pour
déterminer si les facteurs et les interactions sont significatifs. Nous
« balayons » le tableau jusqu'à ce qu'il ne reste que des termes significatifs,
et laissons toujours tous les principaux effets dans le modèle.

Répétitions et réplications
Dans l'exemple, un point de donnée a été utilisé par expérience. Il aurait pu
y avoir des répétitions pour obtenir plus de points de données. Bien que cela
n’augmenterait pas les degrés de liberté, cela augmenterait la sensibilité
(moins de bruit), parce que nous saurions mieux ce que valent l'écart-type
et le bruit d'un point de mesure. Avec un point de mesure par expérience,
rien ne peut être dit à ce sujet.
Avec de véritables répétitions (à court terme), la moyenne des mesures peut
être utilisée. L'écart-type aurait par ailleurs pu être utilisé comme une
réponse supplémentaire (donc une 2e colonne pour Y). On peut ainsi mieux
comprendre quels sont les facteurs qui ont le plus d'influence sur la
variation de la réponse. Il s'agit en fait d'une analyse de sensibilité.

Si les répétitions étaient en fait complétées comme des réplications, l'erreur


réelle serait sous-estimée (les répétitions montrent seulement la variation à
court terme). Plus de facteurs seraient considérés comme significatifs alors
qu'ils ne le sont pas (erreur type I), parce que nous observons qu'il y a moins
de bruit dans les résultats que ce qu'il y en aurait en réalité avec de
véritables réplications.

266
L'avantage des réplications est que la variation à long terme est illustrée et
qu’elles fournissent plus d'informations sur lesquelles fonder des
conclusions.

Les réplications peuvent être utilisées en divisant l'expérience en blocs, de


sorte que toutes les expériences sont réalisées une première fois d’abord, et
ensuite répétées (les expériences sont divisées en deux blocs).

Graphiques de diagnostic et de résidus

Des graphiques de diagnostic aident à confirmer si le modèle est correct et


aident à prévenir que des perturbations inattendues passent inaperçues.

Les graphiques de diagnostic détectent des problèmes comme :

- La cause spéciale inconnue de variation qui peut avoir émergé


pendant les essais que nous avons menés.
- La présence de facteurs de bruit.
- La variation qui ne s'avère pas être constante aux différents niveaux
de certains facteurs (l'hypothèse est que la variation est constante).
- Des expériences qui ont été menées de manière incorrecte ou
d'autres erreurs.

Avec un résidu, on vise l'objectif suivant : sur la base des points de données,
un modèle (mathématique) optimal a été établi et correspond de manière
optimale aux points de données. Toutefois, chaque point de données
présente un certain écart par rapport à ce modèle. L'écart pour une mesure
entre la valeur mesurée et la valeur calculée d'après le modèle est appelé le
résidu. L’analyse des résidus est connue sous le terme de « diagnostics ». Les
graphiques de diagnostic qui présentent ces résidus peuvent être générés
dans Minitab comme suit :

Minitab : Stat -> DOE -> Factorial -> Analyze Factorial Design

Cliquez sur « Graphs ».

267
Figure 8.20

Cochez les 4 graphiques sous « Residual plots », ou mieux : optez pour


« Four in one », comme dans la figure ci-dessus. Cela donne 4 (dans un seul
graphique ou séparément. Pour la lisibilité des graphiques, ils sont illustrés
séparément ci-dessous).
Normal Probability Plot
(response is Yield)
99

95

90

80
70
Percent

60
50
40
30
20
Figure 8.21
10

1
-3 -2 -1 0 1 2 3
Residual

268
Vu que le modèle est basé sur le meilleur ajustement possible des valeurs
mesurées, on s’attend à ce que, lorsque l’on fait un graphique de
distribution normale des résidus, il indique que les résidus sont distribués
normalement. Cela signifie que, dans un graphique de distribution normale,
les points sont situés sur une ligne droite. Dans la pratique, cela signifie que
la plupart des points sont proches du modèle et que moins de points
s’écartent du modèle. Les points suivent en effet la distribution normale.
Figure 8.22 Histogram
(response is Yield)

3
Frequency

0
-2 -1 0 1 2
Residual

Lorsque nous créons un histogramme au lieu d'un graphique de distribution


normale, nous devrions également voir la distribution normale. C’est aussi le
cas dans une mesure suffisante ici.

Versus Fits
(response is Yield)

1
Residual

-1

-2

0 10 20 30 40 50 60
Fitted Value

Figure 8.23 269


Lorsque nous portons les résidus par rapport aux valeurs ajustées (les
valeurs du Yield que le modèle a calculées pour les différents points de
données), nous nous attendons à ce que les résidus soient répartis
uniformément sur toute la zone. Nous ne voulons pas qu'il y ait une
distribution différente dans le bas de la zone par rapport à la partie
supérieure ou centrale de la zone, ce qui créerait une forme d'entonnoir en
allant de la gauche vers la droite.

Figure 8.24 Versus Order


(response is Yield)

1
Residual

-1

-2

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
Observation Order

Enfin, les résidus sont portés par rapport à l'ordre des mesures. Ce
graphique ne peut pas présenter d'entonnoir, ni d'augmentation ou de
diminution progressive. Cela voudrait notamment dire que la quantité de
déviation a augmenté ou est devenue moindre au cours de l'expérience.
Cela pourrait être lié à un facteur extérieur qui a perdu ou gagné de
l’influence pendant l'expérience, par exemple une augmentation de l'usure
ou d'une chute de la température ambiante.

L’optimiseur de réponse

270
Lorsque le modèle a une bonne adéquation en comparaison avec les
données obtenues dans la pratique, Minitab dispose d'un outil qui vous aide
à trouver les meilleurs réglages (désirés) pour un certain output du
processus. Cet outil est l'optimiseur de réponse : Minitab: Stat -> DOE ->
Factorial -> Response Optimizer
Figure 8.25

Via le bouton « Options », vous pouvez éventuellement saisir les limitations


des valeurs des Inputs.

Cliquez sur « Setup ». Sélectionnez « maximiser » dans « goal », car nous


voulons maximiser le rendement (Yield). La limite inférieure est 0. Dans ce
cas, la cible est 100, parce que le pourcentage du rendement d'un processus
ne peut jamais dépasser 100. Minitab a également besoin d'une valeur
initiale pour pouvoir commencer à calculer (un « solver » est utilisé). Cela
permet à Minitab d’atteindre l'objectif souhaité via des essais avec des
réglages basés sur la valeur initiale demandée.

271
Figure 8.26

Les réglages dépendent de l'objectif que vous voulez atteindre. Cela peut
être un objectif basé sur une cible (par exemple, atteindre une certaine
distance avec une catapulte) ou un objectif qui est le plus élevé ou le plus
faible possible.
Figure 8.27

Pour chaque facteur, les réglages hauts et bas sont affichés dans la première
ligne. Les chiffres en rouge indiquent le réglage optimal. En double-cliquant
dessus, ils peuvent être modifiés. La ligne rouge dans le graphique indique
également le réglage optimal pour le facteur en question. Dans Minitab, la
ligne de chaque facteur peut être déplacée pour changer le réglage. L'output
optimal de Y est 63.125. Modifier le réglage optimal réduira Y.
Confirmation
Cette dernière étape de l'analyse DoE est l'une des étapes les plus critiques.
La confirmation signifie que vous acceptez les facteurs tels que calculés par
272
l'optimiseur de réponse et que vous allez mesurer la réponse pour comparer
le résultat avec le résultat calculé. Il est important de tester différents
réglages répartis sur le champ de travail afin de déterminer si le modèle
s'applique à l'ensemble du champ de travail. Suffisamment de données
doivent être collectées pour faire une bonne évaluation de la moyenne et de
l'écart-type.

Lorsque le test du modèle ne fournit pas les résultats escomptés, les


paramètres doivent être vérifiés pour voir s’il y a du bruit ou des causes
particulières. Si, après vérification et correction, il y a encore des anomalies,
il peut y avoir un problème avec le modèle :

- Il peut y avoir une interaction qui n'a pas été incluse dans le
modèle, mais qui a une influence.
- Il peut y avoir eu un changement dans le processus dont
vous n'êtes pas au courant.
- L'hypothèse que Y dépende de X d'un point de vue linéaire n'est
pas correcte. Si nous avions une expérience à deux niveaux, seule
une ligne droite pourrait être tracée entre les deux observations,
alors que cela devrait peut-être être une courbe.
Dans ce cas, vous pouvez envisager de choisir un concept avec moins de
facteurs (mais les principaux), avec plus de niveaux par X, afin de mieux
comprendre l'influence de ces X sur Y.

La valeur des points centraux

Un réglage de point central d'un facteur est la valeur entre les deux
extrêmes (niveau bas et niveau haut). Dans la pratique, la valeur de ce point
central est 0 dans le cas d'un modèle factoriel (parce que faible valait -1 et
haut valait +1).
Sur la base de l'exemple mentionné précédemment concernant les circuits
intégrés, nous allons maintenant aborder la valeur des points centraux. Dans
le concept de l'exemple, nous incluons 3 points centraux pour déterminer
quelle est l'influence du point central sur les différents facteurs.

273
Ajouter des points centraux n'est possible que lorsque vous définissez le
concept DoE. Si vous les ajoutez simplement dans la feuille de calcul, ils ne
sont pas repris dans l'analyse.

Si des points centraux sont souhaités, ils doivent être indiqués à temps dans
Minitab : Stat > DoE > Create Factorial Design, Design choisir : Designs.
Figure 8.28

Dans la figure 8.28, il y a deux points centraux pour chaque bloc. Dans le cas
d'un concept avec seulement des X continus, cela donne dans notre concept
2 points centraux (deux réplications au cœur du cube). Cela signifie que, au
lieu de 16 expériences, il y en a maintenant 18. Cependant, si vous
sélectionnez 2 blocs, ou si l'un des facteurs est discret (et n'a pas de valeurs
intermédiaires pour X), il y a 4 points centraux (2 dans chaque surface
latérale du cube). Cela signifie qu'il y a 20 points de données en tout.

Si vous optez pour 3 blocs ou si deux facteurs sont discrets, vous avez pour
deux points de centrage par bloc 6 points de centrage supplémentaires. Ils
se trouvent à mi-chemin sur les axes du cube. Le concept se compose donc
au total de 16 + 6 = 22 expériences.

274
Design de la surface de réponse
Outre les concepts factoriels (très utilisés) abordés ci-dessus, il existe de
nombreux autres modèles. Si vous avez déterminé quels sont les principaux
facteurs dans votre projet qui contribuent à votre Y, et que vous souhaitez
déterminer les réglages optimaux, un concept de screening est moins
approprié et vous avez besoin d'un concept d'optimisation. Le concept de
modélisation de surface de réponse (RSM) est un tel concept d'optimisation.
Il vous permet de réaliser des expériences sur plusieurs niveaux pour un
nombre limité de facteurs, de sorte que les liens non linéaires puissent aussi
être cartographiés.
Cela signifie que vous obtenez non seulement les sommets d'un cube, mais
aussi plus de points par niveau et une forme géométrique différente.

Supposons que vous ayez conservé deux X importants pour votre projet que
vous souhaitez optimiser, un RSM pour 2 facteurs est alors un excellent
choix.
Vous trouverez ci-dessous une illustration graphique de deux concepts
possibles suivant ce modèle, avec 2X et 3 ou 5 niveaux par X, et 14
expériences à chaque fois. Ces points de données sont également distribués
de manière bien symétrique (orthogonalement).

Scatterplot of pin vs hoek


4,0

3,5
p in

3,0

2,5

2,0

150 155 160 165 170 175 180


hoek

Figure 8.29 a et b
275
Pour créer ce concept dans Minitab, sélectionnez:
Stat > DoE > Response Surface > Create Response Surface design > Designs,

Figure 8.30
Vous voyez que 13 ou 14 expériences sont nécessaires. Plusieurs points
(principalement le point important au centre) sont réalisés plusieurs fois. Les
deux choix (13 et 14 points) sont bons, nous optons par exemple pour
13 points parce que c'est souvent suffisant dans la pratique.

9. Tirer les conclusions

Après avoir effectué les expériences et avoir saisi les résultats dans Minitab,
l'analyse de ce type de concept est réalisée comme vous le feriez pour un
concept factoriel. A nouveau, un modèle est dressé, les graphiques peuvent
être créés et après avoir déterminé le meilleur modèle, vous pouvez utiliser
un optimiseur de réponse pour faire des prédictions sur ce que sera le Y,
compte tenu de certains X. Il est à nouveau possible d'atteindre une certaine
valeur cible du Y. Minitab vous donne alors les paramètres des X à saisir.
276
8.3 Méthode Essai – Erreur
Si les X ne peuvent pas être isolés ou ajustés indépendamment à des valeurs
spécifiques, vous avez besoin d'utiliser la méthode Essai – Erreur (Trial
Experiments).

On utilise la méthode Essai – Erreur pour tester des solutions


présélectionnées, sans avoir d'abord établi un modèle indiquant comment X
est relié à Y.
Pour utiliser la méthode Essai – Erreur, utilisez la procédure suivante :
1. Collectez des données.
2. Développez des solutions alternatives.
3. Screenez les alternatives.
4. Procédez à une analyse des risques.
5. Choisissez parmi les options alternatives.
Dans les paragraphes suivants, ces étapes sont expliquées plus en détail et
développées.

8.3.1 Collecte des données


Dans les chapitres précédents, des données ont été collectées sur l'output
du processus Y et les facteurs qui influencent cet output de processus, les X
vitaux. Les données recueillies par la méthode Essai – Erreur se rapportent
aux solutions possibles. La collecte de données se concentre sur trois
domaines.
L’historique du processus

• Quelle a été la performance dans le passé ?


• Le processus est-il stable dans le temps ?
• Est-ce que le problème a déjà été identifié dans des projets Lean Six
Sigma précédents ?
• Est-ce que certaines idées ou solutions ont déjà été citées et essayées
dans le passé ?
• Y a-t-il des meilleures pratiques qui peuvent être appliquées à ce
problème ?
277
Limites

• Y a-t-il certaines préconditions qui excluent certaines solutions ?


• Quelles sont les limites qui affectent la solution ?
• Y a-t-il des limitations en ce qui concerne les coûts, les sources ou les
changements du processus ?

L’environnement opérationnel

• Quels sont la performance actuelle et l'environnement opérationnel ?


• Si la standardisation est un problème, quelle variation est-ce que cela
entraîne dans le processus ?
• Quels sont la performance actuelle et l'environnement opérationnel des
autres/la concurrence (benchmark) ?

La collecte de données concernant ces questions est une bonne préparation


pour trouver des solutions alternatives et prévenir la génération de
solutions qui ont déjà été essayées ou ne sont pas possibles.

8.3.2 Développer des solutions alternatives


Le développement de solutions alternatives est un processus créatif. Dans
cette étape, un maximum de solutions sont considérées avec l'équipe Lean
Six Sigma. Pour vous assurer qu'il s'agisse d'un processus créatif, il ne doit y
avoir aucune restriction quant à l'expression des idées et de la créativité.
« Toutes les idées sont bonnes », telle est la devise. Évitez les obstacles aux
idées créatives, comme :

• Rester « dans la boîte ».


• Remettre en question les hypothèses ou les paradigmes existants.
• La peur de dire quelque chose de mal.
• La recherche de la « meilleure » réponse (dans cette phase, toutes les
réponses sont bonnes).
• Mettre l'accent sur la logique.
• Condamner les idées avant qu'elles ne soient complètement formées.

278
La synthèse consiste à prendre les meilleurs éléments de toutes les solutions
possibles pour générer de meilleures solutions. Concentrez-vous sur une
cause (X) à la fois. Commencez par la cause première la plus importante.

Dans les sous-paragraphes suivants, nous discutons de différents outils qui


peuvent être utilisés pour générer des idées et des solutions. Les outils
créatifs suivants sont abordés :

• Le brainstorming
• Les interviews
• Les questions qui incitent à la réflexion
• Le mind mapping
• Six thinking caps (méthode des 6 chapeaux)
• Building on ideas
• Le benchmarking

8.3.2.1 Le brainstorming
Le brainstorming est une technique très utilisée. Il encourage la créativité et
élargit la réflexion pour permettre d'identifier tous les aspects d'un
problème ou d’une solution. Il offre un large champ de possibilités. En
encourageant les participants à exprimer toute idée qui leur vient à l’esprit,
il aide le groupe à développer de nombreuses idées rapidement. Une bonne
séance de brainstorming fournit un environnement où les gens ne sont pas
jugés, mais encouragés à proposer des idées. Toutes les idées sont inscrites.
Puisque tous les membres de l'équipe participent activement au processus
de brainstorming, il se développe un niveau d’appropriation de la solution
en cours de discussion et des activités associées. Lorsque les membres de
l'équipe orientent personnellement une décision, il est plus probable qu'ils
vont soutenir ces solutions. Les résultats d'une session de brainstorming
peuvent également être utilisés comme input pour d'autres outils.

Une session de brainstorming comporte les étapes suivantes :

279
1. Indiquez clairement l'objectif. Discutez et clarifiez le problème.
2. Donnez à chacun quelques minutes de silence pour réfléchir à la
question et notez leurs idées individuellement.
3. Rassemblez les idées et inscrivez-les sur un tableau de conférence
- Ne discutez ou ne critiquez PAS les idées.
- Construisez sur la base des idées des autres.
4. Lorsque le processus ralentit, alimentez la session de brainstorming en
ajoutant d'autres idées.
5. Clôturez la session de brainstorming en évaluant la liste des idées :
- Veillez à ce que chacun comprenne bien chaque idée.
- Consolidez les idées similaires.
- Précisez les idées et demandez si nécessaire des informations plus
spécifiques.

Enfin, voici un certain nombre de choses à faire et à ne pas faire lors d’une
séance de brainstorming :

A faire

• Formuler des idées de façon concise.


• Permettre aux individus de formuler leurs idées.
• S'appuyer sur les idées existantes.
• Organiser, classer et évaluer seulement après la session.
• Viser la qualité.

A ne pas faire

• Critiquer les idées.


• Juger quand les idées sont suggérées.
• Paraphraser une idée d'un membre de l'équipe lorsqu’elle est notée.
• Dominer la session.

280
Il existe un certain nombre de techniques pour stimuler la formation des
idées:
• Canaliser : il s'agit en fait de l’inverse d’un diagramme d'Ishikawa. En
partant du X trouvé, réfléchissez à des domaines (6M ou 4P) qui
peuvent conduire à une solution.
• Analogies : voyez où cela fonctionne bien et copiez.
• Anti-solution : réfléchissez à ce qui est nécessaire pour faire encore
pire. Inversez et vous aurez les améliorations.
• Brain wrinting : laissez les gens dessiner et écrire leur solution, passez
les feuilles au voisin et laissez-le élaborer dessus jusqu'à ce que chacun
ait fourni sa contribution à l'idée.
• Analyse du champ de force (Force Field Analysis): l'équipe effectue un
brainstorming pour les X trouvés sur les forces qui augmentent ces X
(flèches vers le haut) et sur les forces qui diminuent ces X (flèches vers
le bas). Ensuite, à l'aide d'une série d'actions à mettre en place, cet
équilibre entre ces forces sera modifié afin que notre projet aille dans la
bonne direction, en diminuant ou en augmentant certaines de ces
forces.
Figure 8.31

8.3.2.2 Les interviews


Interviewer les personnes impliquées dans un processus ou un service qui
est comparable à celui que vous souhaitez développer ou que vous visez
aboutit souvent à de nouvelles idées. En interrogeant les gens sur place,
vous aurez une idée de ce qui fonctionne et ne fonctionne pas pour eux.
Répertoriez les idées qu'ils ont sur l'amélioration du produit, processus ou
service. Reprenez dans les interviews ce qu’ils apprécient et ce qui les
dérange dans leur travail. Cela débouche souvent sur une perspective de ce
vers quoi vous voulez aller. C'est également ce que l'on appelle le « golden
batch » ou le « happy flow ».
281
8.3.2.3 Questions qui incitent à réfléchir
Les questions qui font réfléchir remettent les structures et méthodes
conventionnelles en question. Pour avoir une idée de la façon dont cette
technique fonctionne, voici quelques exemples :

• Qui exécute le travail ? - Quelqu'un d'autre peut-il le faire ?


• Où le travail est-il accompli ? - Peut-il être accompli ailleurs ?
• Quand le travail est-il accompli ? - Le timing peut-il changer ?
• Quelles sont les sources exigées ? - Où peut-on trouver d'autres
ressources ?
• Dans quelles conditions le travail est-il assuré ? - Est-ce que cela peut
changer ?
• Comment le travail est-il maintenu sous contrôle ? - Quelle est la partie
qui ajoute de la valeur ?
• De quoi le client a-t-il vraiment besoin ? - Comment le client utilise-t-il
le produit/service ?

8.3.2.4 Le mind mapping


La technique graphique du Mind Mapping organise le processus de réflexion
d'une manière rapide et claire. Un Mind Map adhère à la manière dont votre
cerveau fonctionne. Outre le fonctionnement linéaire, il fonctionne aussi de
manière associative. Cela permet de révéler des informations cachées via le
Mind Map.
Protocole pour un Mind Map :

1. Ecrivez ou dessinez le sujet au centre de la page.


2. Notez toutes les associations (en utilisant des couleurs différentes).
3. Utilisez ensuite des mots clés pour le prochain tour d’associations.
4. Donnez au Mind Map une structure arborescente à l'aide de branches
épaisses et minces.
5. Remplacez autant de mots que possible par des dessins.
6. Améliorez le Mind Map en ajoutant de la structure. Si possible,
établissez des connexions.

282
7. Utilisez les 6 questions : Quand ? Quoi ? Comment ? Pourquoi ? Où ?
Qui ?

Figure 8.32

8.3.2.5 Méthode des six chapeaux


La méthode des six chapeaux (Six Thinking caps de DeBono) encourage à
étudier des décisions depuis différents points de vue. Chaque chapeau
représente un point de vue différent. Elle oblige à aller au-delà de la
manière de penser habituelle et donne une image plus complète de la
situation. Un deuxième avantage est que les participants ne peuvent se
concentrer que sur un seul point de vue à la fois, ce qui permet d'éviter des
affrontements.

Par exemple : de nombreuses personnes réfléchissent à partir d'un point de


vue positif, rationnel. Elles ne parviennent donc pas à étudier un problème
d'un point de vue émotionnel, intuitif, créatif ou négatif. Cela peut signifier
qu'elles sous-estiment la résistance aux plans, ne parviennent pas à faire des
bonds créatifs et ne font pas de plans de secours essentiels.

283
Les points de vue sont traduits en chapeaux d'une certaine couleur.

Figure 8.33

Chapeau gris : pense sous forme de faits, de chiffres et d'informations. Avec


le chapeau gris, le but est d'assurer un maximum d'objectivité. Recherche
les lacunes dans les informations et essaie de les prendre en compte ou de
les combler.

Chapeau rouge : examine les problèmes émotionnellement, intuitivement.


Essaie de tenir compte de la manière dont les gens réagissent
émotionnellement. Essaie de comprendre les réactions des gens qui ne
connaissent pas la raison exacte derrière une idée.

Chapeau noir : la personne négative, mettant l'accent sur tout ce qui peut
aller mal, est incorrect ou est risqué. C'est important, car cela attire
l'attention sur les points faibles d'un plan. Cela vous permet de les éliminer
ou de penser à une solution alternative.

Chapeau jaune : pense positivement et constructivement. Recherche les


opportunités. Le chapeau jaune vous aide à avancer dans les moments
d'adversité.

Chapeau vert : est créatif et génère de nouvelles idées.

Chapeau bleu : structure le processus, définit les problèmes et organise le


suivi de diverses tâches. Ce chapeau est porté par la personne qui préside la
réunion.

Comment utiliser les 6 chapeaux

284
Les six chapeaux peuvent être utilisés de différentes façons au cours d'une
réunion ou d’une session. Envisagez d'appliquer les directives suivantes.

• Un facilitateur demande aux participants de porter certains chapeaux.


• Tous les participants portent temporairement un chapeau, puis les font
passer.
• Les participants portent aussi pendant un moment un chapeau qu’ils ne
portent pas habituellement.
• Parfois, nous demandons aux participants de tous porter le même
chapeau, puis un autre afin de réfléchir conjointement depuis plusieurs
points de vue.

Exemple (cas)

Les directeurs d'une agence immobilière étudient s'ils doivent construire un


nouveau bureau ou non. L'économie ne va pas si bien et il y a assez bien de
bureaux libres. Pour prendre leur décision, ils décident d'utiliser la méthode
des six chapeaux afin de réfléchir depuis divers points de vue à la décision à
prendre et de tirer la bonne conclusion.

Chapeau blanc : analyse les données disponibles. Etudie la tendance dans le


bureau vide. Elle affiche à présent une légère augmentation. Ils supposent
que d'ici à ce que le bureau soit prêt, sur la base de prévisions bien étayées
des développeurs de projet, il y aura de nouveau une pénurie d'espaces de
bureau. Les actuelles prévisions des pouvoirs publics affichent en effet une
faible croissance économique pour les prochaines années.

Chapeau rouge: le bâtiment proposé est moche. Même s'il est beaucoup
plus rentable que les bâtiments actuels, personne ne voudra y travailler.

Chapeau noir : les prévisions des développeurs du projet et des pouvoirs


publics peuvent être mauvaises. L'économie peut justement encore reculer,
même si elle a atteint un point de non-retour cyclique. Dans ce cas, le
bureau pourrait rester vide pendant longtemps. Si le bâtiment n'est pas plus

285
attractif que ceux de la concurrence, les organisations peuvent décider de
s'installer dans un autre bureau, plus beau et avec le même loyer.

Chapeau jaune : si l'économie augmente légèrement, l'entreprise peut


générer beaucoup de gains avec un bâtiment efficace et attrayant. Le
bâtiment pourrait même être vendu avant la prochaine récession
économique. Il pourrait aussi être loué en vertu d'un contrat à long terme
qui résisterait à toute récession.

Chapeau vert : envisage de modifier le concept pour rendre le bâtiment plus


agréable pour y travailler. Il peut être transformé en bureaux de prestige
que les gens voudront toujours louer quel que soit le climat économique. En
tant qu'alternative, on peut à court terme investir de l'argent pour acheter
le bien immobilier inoccupé, et donc à bas prix, et pour le démolir afin que
l'inoccupation disparaisse et que le prix augmente.

Chapeau bleu : utilisé par le président de la réunion pour circuler parmi les
perspectives. Il ou elle peut si nécessaire changer le chapeau des
participants.

286
8.3.2.6 Construire sur les idées
La technique « construire sur les idées » est utilisée pour construire sur les
idées qui peuvent sembler à première vue inutilisables ou absurdes.
L'équipe modifie l'idée de manière à ce qu'elle devienne meilleure et plus
utilisable. Une meilleure idée surgit toujours de l'approfondissement des
aspects utiles d'une telle idée.

Figure 8.34

Figure 8.35

« L'Itemized Response » est une technique permettant d'y arriver.

8.3.2.7 Le benchmarking
Le benchmarking est un outil que les entreprises utilisent pour comparer
leurs performances ou processus à celui du « meilleur de la classe ». En
examinant comment ces « meilleurs de la classe » atteignent leur statut
287
actuel et en utilisant ces informations pour ses propres processus, des idées
d'amélioration peuvent être générées. Cela évite aux participants d'avoir à
« réinventer la roue » et conduit à des résultats rapides. Si les membres de
l'équipe observent que le processus permet dans une autre organisation
d’enregistrer des performances d'un niveau supérieur, on aura tendance à
accepter que l'on doive non seulement faire mieux, mais que l'on puisse
aussi faire mieux.

La connaissance peut être acquise à l'extérieur auprès de la concurrence ou


dans d'autres secteurs, ou peut-être en interne dans d'autres business units
ou départements. Sources d'information :

• Les sociétés de benchmarking (qui tiennent des bases de données)


• Les fournisseurs
• Les clients
• Les visites d'entreprises
• Les bases de données
• Les enquêtes téléphoniques
• Les entrevues personnelles
• Les publications
• Les revues commerciales
• Les réunions commerciales

8.3.3 Evaluer les solutions alternatives


En utilisant les techniques décrites dans le paragraphe précédent, nous
avons généré un maximum de solutions possibles. Dans un premier
screening, le nombre de solutions possibles est réduit en les testant par
rapport aux exigences minimales auxquelles la solution doit satisfaire sur la
base des CTQ client et des CTQ entreprise, comme la législation, la politique
de l'entreprise, les demandes des clients ou de l'entreprise ou les
restrictions budgétaires.

288
Sur la base de ce premier screening, un certain nombre de solutions seront
abandonnées. Une évaluation des risques est effectuée pour les solutions
restantes à l'aide d'une FMEA.

8.3.4 Evaluation des risques, FMEA


Avant d'expérimenter une solution possible, les risques potentiels de la
solution sont d'abord évalués. Les catégories de risques sont les suivantes :

Sécurité : y a-t-il des risques de sécurité (environnement, sécurité


extérieure) liés à cette expérience ou à la modification du processus ou des
procédures ?

Clients : y a-t-il des effets négatifs potentiels sur les clients suite aux
nouveaux changements non testés du processus ou suite à des défauts
potentiels ?

Employés : est-ce que le nouveau processus a une incidence sur la sécurité


des employés ?

Coopération : peut-il y avoir de la résistance en termes de coopération des


employés à l'expérience ?

Entreprise : est-ce que le test d'un nouveau processus a un effet négatif sur
d’autres objectifs de l'entreprise ?

Une évaluation des risques porte sur deux aspects :

• Qualité technique
• L’acceptation par les parties concernées

Les deux éléments sont nécessaires pour le résultat. La mise en œuvre de la


meilleure solution qualitative qui n'est pas acceptée par l'organisation ne
rencontrera pas le succès. Une bonne solution (à défaut d’être la meilleure)
qui est acceptée aura plus de succès. Evaluez les deux aspects lors de
l'estimation des risques.

289
Tableau 8.6
Qualité technique Acceptation
Clients Risquons-nous de laisser les Les clients accepteront-ils le
clients entrer en contact avec changement ?
des défauts ?
Employés Est-ce que le nouveau Les employés accepteront-ils
processus a une incidence sur le changement ?
la sécurité des employés ?
Parties Est-ce que le nouveau Les principales parties
prenantes processus a un impact négatif prenantes accepteront-elles
sur les objectifs de le changement ?
l'entreprise, comme les
coûts ? Est-ce que le nouveau
processus influe sur
l'environnement ?
Collaboration Y a-t-il des problèmes Les collaborateurs
concernant la collaboration ? accepteront-ils et suivront-il
les nouvelles procédures ?
Etudiez pour chaque solution la manière dont la mise en œuvre peut influer
sur les risques pour : les clients, les coûts, la sécurité, l'IT, l'environnement
et les autres domaines possibles.

Les risques peuvent aussi provenir de sources externes, comme les


fournisseurs, les changements technologiques, la conjoncture économique,
les exigences politiques, les créanciers et la concurrence.

Un diagramme d'Ishikawa (fishbone) ou une matrice de cause et effet peut


être utilisé pour cartographier les risques.

La FMEA est un outil parfait pour effectuer une évaluation des risques. La
FMEA a déjà été abordée au paragraphe 6.2.4. Les risques sont quantifiés
avec une FMEA et, si possible, on définit des contre-mesures qui limitent ou
éliminent les risques.

8.3.5 Sélectionner la meilleure solution à partir des


alternatives
Une partie des solutions possibles a été éliminée en raison des exigences
« must be », et une autre partie est trop risquée pour la mise en œuvre ou

290
l’expérimentation. Le nombre de solutions possibles a été réduit. Dans cette
dernière étape des expériences d’essai, une solution appropriée doit être
identifiée. Trois outils d’aide à la décision sont abordés ci-dessous. Ils
peuvent être comparés à la matrice Cause et Effet citée précédemment.

8.3.5.1 Matrice de décision


Une matrice de décision est utilisée pour évaluer les différentes alternatives
en fonction des critères souhaités. Les critères sont davantage pondérés s'ils
sont considérés comme plus importants que d'autres. Les alternatives sont
notées (entre 1-10) selon leur capacité à satisfaire au critère en question. Ce
score est multiplié par le facteur de pondération et tous les scores pondérés
sont additionnés. On obtient ainsi un classement d'alternatives qui sert
d'input pour le choix définitif.

Exemple

Figure 8.36

8.3.5.2 Matrice de Pugh


La matrice de Pugh a été développée par le Dr Stuart Pugh, un scientifique
écossais. Il a développé cette méthode pour sélectionner des solutions
conceptuelles. La méthode formalise le processus de prise de décision pour
sélectionner la solution. Des solutions alternatives sont comparées aux CTQ
projet et à leurs critères d'évaluation pondérés. La force de la matrice de
Pugh réside dans le fait que des alternatives plus fortes sont générées en
plusieurs sessions à partir d'alternatives plus faibles ou qu'une version
hybride des meilleures solutions peut être créée. Une autre distinction avec
291
la matrice décisionnelle susmentionnée est que les alternatives sont
comparées 1 à 1 avec une solution de base choisie (également appelée
« date »).

Méthode

La construction d'une matrice de Pugh comporte les étapes suivantes :

1. Définissez les critères d’évaluation.


2. Pondérez les critères d’évaluation.
3. Sélectionnez l'une des solutions alternatives comme solution de
référence pour les alternatives.
4. Evaluez toutes les alternatives par rapport à la référence pour chaque
critère (mieux, égale, moins bonne).
5. Sélectionnez la meilleure solution.

1. Définissez les critères d’évaluation

Les critères d'évaluation sont basés sur les exigences des clients, les CTQ du
projet et ce que l'entreprise considère comme important. Exemples de
critères par rapport auxquels les solutions alternatives peuvent être
évaluées :

• Conforme à la stratégie
• Impact sur les coûts / revenus
• Le temps nécessaire pour la mise en œuvre
• Les investissements en capital
• Les coûts d'exploitation
• Les risques de mise en œuvre
• Conforme aux exigences des pouvoirs publics
• Environnement / Sécurité
• Restrictions politiques

292
Faites une sélection des critères qui sont les plus importants pour le projet
en question. N'utilisez pas trop de critères, 5 à 8 est un bon nombre.

2. Pondérez les critères d’évaluation

Evaluez les critères en fonction de leur niveau d'importance. Utilisez une


échelle numérique (souvent de 1 à 5 ou de 1 à 10). Classez les critères par
ordre d'importance relative. Essayez de réaliser une certaine dispersion (pas
tous des 4 et 5).

3. Sélectionnez la référence

Sélectionnez l'une des solutions alternatives comme référence. Optez pour


une alternative bien connue de toutes les parties intéressées afin qu'elle
puisse servir de base pour une comparaison avec d'autres alternatives.

4. Evaluez toutes les alternatives par rapport à la référence pour chaque


critère (mieux, égale, moins bonne)

Premier tour

Comparez toutes les alternatives à la référence pour chaque critère, comme


suit :

• Significativement meilleure que la référence (+2 dans la matrice)


• Meilleure que la référence (+1 dans la matrice)
• Aussi bien que la référence (0 dans la matrice)
• Moins bonne que la référence (-1 dans la matrice)
• Significativement moins bonne que la référence (-2 dans la matrice)

Pour chaque alternative, ajoutez les scores positifs et négatifs séparément


et mettez-les au bas de la matrice. Répétez l'opération, mais en multipliant
d’abord les scores par le facteur de pondération du critère. Mettez ces
scores en dessous de la matrice et calculez le score net (somme des scores +
et -).

293
Figure 8.37

Analysez le premier tour


Analysez les résultats du premier tour et résumez les solutions alternatives
pour sélectionner et améliorer les solutions fortes. Concentrez-vous d’abord
sur l’alternative avec le plus grand nombre de points positifs et le plus petit
nombre de points négatifs. Analysez les faibles scores sur les critères. Est-ce
que ces scores faibles peuvent être améliorés en remplaçant quelque chose
dans l’alternative sans affecter les scores positifs sur d'autres critères ? Est-
ce que les points forts d'autres alternatives peuvent être utilisés pour
aborder les points faibles dans d'autres alternatives ? Si cela aboutit à une
solution modifiée, ajoutez-la à la matrice.

5. Sélectionnez la meilleure solution


Retirez de la matrice les solutions qui sont manifestement plus faibles et
notez à nouveau les alternatives dans un second tour. Utilisez la solution la
plus forte comme alternative de référence. Si cela confirme la puissance de
l'alternative de base, sélectionnez cette alternative. Sinon, poursuivez
l'analyse et notez jusqu'à ce qu'une solution manifestement meilleure se
dégage.
294
8.3.5.3 Matrice AHP
Le processus analytique hiérarchique (AHP - Analytical Hierarchical Process)
a été développé par le mathématicien Thomas Saaty. La force de l'AHP
réside dans sa capacité à objectiver l'appréciation des critères qui sont
utilisés pour faire une sélection. En organisant et en évaluant les alternatives
par rapport aux objectifs, l'AHP fournit un excellent outil pour l'adoption de
décisions complexes. L'AHP fournit un moyen simple, mais puissant pour
identifier, évaluer et analyser les critères de sélection. Cela réduit la
discussion et accélère le cycle décisionnel. L'AHP est particulièrement utile
dans les décisions complexes, car l'ensemble du processus décisionnel est
divisé en nombreux sous-processus plus petits qui sont moins complexes,
même si, ensemble, ils constituent l’entièreté de la décision complexe. En
combinaison avec la matrice de Pugh, l'AHP est un outil puissant pour
sélectionner une solution.
Approche
L'AHP contient les étapes suivantes (par exemple, voir la figure 8.38) :
1. Remplissez les critères d'évaluation.
2. Créez une hiérarchie avec des scores (par exemple l'environnement est
plus important que la vitesse : 3, le score inverse (vitesse par rapport à
l'environnement) est donc 1/3).
3. Comparez chaque critère avec les autres de cette façon.
4. Calculez le poids relatif (additionnez les scores de chaque colonne,
mettez la somme de tous les scores relatifs par critère dans la colonne
de calcul, de sorte que les scores relatifs soient divisés par la somme de
chaque colonne). Voir l'exemple.
5. Utilisez les facteurs de pondération que vous avez identifiés dans la
matrice de Pugh.

295
Speed of impact on
Figure 8.38 implemen- the
impact on Acceptance Cost to calculation Rating
CTQ by society implement column score
tation Environment

Speed of implemen-
tation 1 1/3 1/5 1/3 1/5 0,25 5
impact on the
Environment
3
1 1/3 1 1/3 0,61 12
impact on CTQ 5 3
1 5 1 1,85 37
Acceptance by
society
3 1 1/5
1 3 1,04 21
Cost to implement 5 3 1 1/3
1 1,24 25

17 8 1/3 2 3/4 7 2/3 5 1/2 5 100

Pour clarifier l'étape 4, regardons d’un peu plus près la vitesse. Le score de
0,25 dans la colonne de calcul a été obtenu de la manière suivante :

O Oc Oc Oc Oc O
H a H a
dOcH Hce bcH aOc
+ + + + = = 0,25
Ob e

La pondération est calculée à partir de la somme de la colonne de calcul


(dans ce cas 5), à ramener à 100 (facteur 20). Le facteur de pondération de
chaque critère est donc multiplié par 20, ce qui, dans le cas de la vitesse,
signifie 20 * 0,25 = 5.

Pour déterminer la hiérarchie entre les critères, une échelle de 1-9 avec les
définitions suivantes est la plus utile (Saaty) :

1 Tout aussi important


3 Un peu plus important
5 Plus important
7 Beaucoup plus important
9 Extrêmement plus important

Dans la matrice, cela se traduit par : 1, 1/3, 1/5, 1/7 et 1/9

296
8.3.6 Réaliser l’expérience d’essai
Au cours des étapes antérieures, les techniques de sélection de la solution
au problème ont été examinées. Maintenant que la solution a été
sélectionnée, une expérience d'essai devra démontrer si la solution a l'effet
désiré. Cette expérience d'essai est menée dans le cadre d'un pilote à petite
échelle, dans des conditions d'entreprise. Le pilote est examiné au
chapitre 9. S'il s'avère que la solution choisie n'a pas l'effet escompté dans la
pratique, une solution alternative peut être testée.

8.4 Exercices

Technique des 6 chapeaux de réflexion


La technique des 6 chapeaux de réflexion est utilisée comme outil de
brainstorming.

Indiquez les points de vue que les chapeaux affichés ci-dessus représentent.

297
298
CHAPITRE 9 : TESTER LA SOLUTION

9.1 Introduction
Dans le chapitre précédent, nous avons déterminé ce que sera la solution
optimale au problème. Cette solution doit déboucher sur une meilleure
performance du Y. Le choix est soutenu par des données et des
connaissances de l'organisation. Cependant, toute solution doit faire ses
preuves dans la pratique. La vaste mise en œuvre d'une solution peut
entraîner d'importants changements et avoir des conséquences pour
l'organisation. C'est pourquoi il est recommandé de tester la solution
proposée à une petite échelle dans la pratique, ce qui permettra de mieux
comprendre les effets et nous montrera comment la déployer efficacement
à plus grande échelle. Ce déploiement à petite échelle est appelé un
« pilote ». Dans ce chapitre, nous abordons l'exécution d'un pilote - pour
tester la solution avant de procéder à une mise en œuvre complète.

9.2 La réalisation d'un pilote


Un pilote est réalisé pour tester concrètement une solution proposée. Un
pilote devrait nous fournir des réponses aux questions suivantes :

• Allons-nous atteindre notre objectif avec cette solution ?


• Les effets correspondent-ils à nos attentes ?
• Est-ce que nous avons oublié quelque chose ?
• Comment l’organisation réagit-elle à la solution ?
• Quelle est la meilleure façon d'aborder le déploiement à grande échelle
de la solution ?

En réalisant un pilote, vous limitez le risque d'échec et obtenez une


prédiction plus précise des économies (de coûts) qui résulteront du projet.
Le business case peut ainsi être affiné pour étayer la mise en œuvre
complète.

299
Lors de la mise à jour ou du déploiement de nouveaux logiciels, il y a
presque toujours un pilote. Les grandes entreprises, comme les sociétés
multinationales, utilisent toujours un pilote chaque fois qu'un processus doit
être modifié. Dans les environnements de production - par exemple où des
machines ou des équipements sont fabriqués - les pilotes sont également
utilisés tout naturellement. On les appelle souvent « prototype ».

9.3 Gérer le pilote


Réaliser un pilote est un projet en soi et il est souvent préférable d'adopter
une approche orientée projet. Puisque des changements à petite échelle
seront effectués dans un processus qui, dans la plupart des cas, affecte
l'organisation, il est important de veiller à ce que le (top) management soit
engagé. Assurez-vous que les éléments suivants sont en place :

• Rassemblez un groupe de pilotage (y compris le client et les principales


parties prenantes).
• Désignez un chef de projet ou assumez ce rôle vous-même.
• Dressez un plan d'approche (y compris la planification, les
responsabilités, l’investissement).
• Formez les personnes impliquées dans le processus sur les changements
dans le processus suite à la solution qui a été choisie.
• Faites un plan de collecte de données et recueillez des données
pendant la phase pilote afin de pouvoir procéder à une évaluation
approfondie quand le pilote sera terminé. Assurez-vous que les inputs
nécessaires et les conditions du processus soient testés dans le pilote.
Dans le cadre de la collecte de données, incluez des facteurs d'influence
externes possibles et d’éventuels X supplémentaires qui peuvent avoir
de l'influence. Exécutez le pilote suffisamment longtemps pour obtenir
des données de base fiables.
• Organisez des séances d'information avec les départements concernés
et communiquez le plan d'approche.
• Surveillez la mise en œuvre du pilote et faites rapport au groupe de
pilotage sur le planning et l'exécution.

300
L'équipe d'amélioration est étroitement impliquée dans l'exécution et le
suivi du projet pilote. L'expérience d'apprentissage est importante pour la
préparation du déploiement complet de la solution.

9.4 Analysez les résultats du pilote


Le pilote a deux objectifs d'apprentissage :

1. Est-ce que la solution proposée est vraiment la solution à notre


problème ?
2. Comment devrions-nous gérer la mise en œuvre à grande échelle ?

Les données recueillies devraient répondre à la première question. Une


méthode possible pour évaluer ce point consiste à déterminer la nouvelle
capacité de processus par rapport à la performance souhaitée. En la
comparant avec l'ancienne capacité de processus, il est ainsi possible de
quantifier l’amélioration. Déterminez si la nouvelle capacité de processus
répond suffisamment au CTQ désiré du processus.

Si l'objectif du projet est de provoquer un changement dans la moyenne,


dans le pourcentage de défauts ou une réduction de la variabilité, réalisez
un test en utilisant les hypothèses suivantes :

HK la solution proposée n'a pas provoqué une amélioration significative dans


le processus.

HN la solution proposée a provoqué une amélioration significative dans le


processus.

Autant que possible, évaluez les résultats ou le comportement des autres X


mentionnés plus tôt lorsque vous analysez les relations de cause à effet dans
la phase Analyse. Cela fonctionne de la même manière : collectez des
données au cours du pilote concernant les X en question et le Y et
déterminez si le X a un effet sur Y (encore, ou plus, ou moins).

301
La deuxième partie de l'évaluation a trait à l'exécution du pilote proprement
dit. Évaluez le pilote sur la base de questions comme :

• Les instructions étaient-elles claires ?


• Les instructions ont-elles été suivies ?
• Quels goulots d'étranglement sont apparus ?
• Est-ce que le plan a été exécuté comme prévu ?
• Quels sont les outils ou formulaires qui auraient aidé ?
• Est-ce que de nouveaux problèmes concernant le processus sont
apparus ?

Toutes ces réponses constituent de l’input pour le plan de mise en œuvre à


grande échelle de la solution. Rédigez un rapport d'évaluation du pilote pour
informer le groupe de pilotage et le client sur les résultats et les leçons
apprises. Sur la base de ce rapport d'évaluation du pilote, le client peut,
éventuellement avec la direction, prendre une décision sur la mise en œuvre
complète de la solution.

9.5 Conseils pratiques pour un pilote réussi


Voici enfin quelques conseils issus de la pratique : plusieurs points
d'attention auxquels on ne prête pas attention, mais qui contribuent à la
réussite du pilote.

• L'équipe d'amélioration doit être présente pendant le processus pilote ;


ce qu'elle apprend vaudra cet investissement en temps.
• Exécutez le pilote suffisamment longtemps pour obtenir des données
de base fiables.
• Faites un enregistrement détaillé de toutes les activités pendant le
pilote.
• Adaptez activement votre plan de mise en œuvre.
• Collectez les données des facteurs de processus et des facteurs externes
qui peuvent avoir de l'influence.
• Assurez-vous si possible que tous les inputs et les conditions du
processus sont testés dans le pilote.
302
• Attendez-vous à des difficultés « d'échelle », même après un pilote
réussi.
• Identifiez les différences entre l'environnement de pilote et
l'environnement de mise en œuvre ; éliminez les problèmes potentiels
avant le déploiement.

303
304
PARTIE 5 : CONTROLE

Dans cette dernière partie, nous traitons la cinquième phase de la méthode


DMAIC. L'objectif de la phase de contrôle :

Mettez les solutions qui ont été sélectionnées en œuvre et assurez-vous


qu’elles sont garanties dans le processus et dans l'organisation. Partagez les
solutions avec d'autres intervenants qui ont (peuvent avoir) un problème de
processus similaire.

Les trois étapes suivantes du plan en 12 étapes jouent un rôle central dans
cette phase de contrôle :

10. Sécurisation et analyse du système de mesure.


11. Mise en œuvre et démonstration de l'amélioration.
12. Documentation du projet et transfert.

Après cette partie, vous serez en mesure de :

• Sécuriser la solution pour que les améliorations aient un effet durable.


• Déployer la solution dans l'organisation.
• Démontrer l'amélioration.
• Documenter les informations du projet.
• Définir les possibilités d'application de ce qui a été appris dans d'autres
projets.

Après avoir terminé la phase de contrôle, les éléments suivants seront


livrés :

• Un plan de contrôle
• Un plan de mise en œuvre
• Une amélioration démontrée
• Documentation du projet

305
306
CHAPITRE 10 : GARANTIE ET ANALYSE DU
SYSTEME DE MESURE

10.1 Introduction
Dans le cadre de la mise en œuvre de la solution au problème de processus,
une attention particulière est nécessaire pour faire en sorte que le
changement qui est exécuté soit durable. Ce chapitre se concentre sur la
sécurisation de la solution. Ci-dessous, nous allons discuter des outils qui
peuvent être utilisés à cette fin.

Figure 10.0

L'un des éléments de la garantie est la mesure et le suivi des performances

du processus et des principales variables qui influent sur ces performances,


soit les X vitaux et le Y. Pour s’assurer que cette mesure est fiable, on
procède une fois de plus à une analyse du système de mesure, ou on vérifie
si l'analyse précédente est encore valable avec les nouvelles valeurs de X et

307
Y. Cette analyse est aussi réalisée dans cette phase.

10.2 Plan de contrôle


Les changements du processus sont décrits dans le plan de contrôle. Pour
chaque cause première, on y indique comment elle sera gérée sur le plan
opérationnel. De plus, il est indiqué dans le plan de contrôle comment le Y
projet sera surveillé et géré. En outre, on indique dans le plan de contrôle
qui est responsable de la correction des problèmes concernant les X ou Y
quand ils surviennent, et quelle action ou procédure s'ensuivra. On renvoie
éventuellement à ce niveau à la documentation de support. Le plan de
contrôle est intitulé Plan de garantie. Dans un certain nombre d'industries,
on utilise un OCAP (Out of Control Action Plan). Il présente de nombreuses
correspondances avec le plan de contrôle. L'OCAP est seulement plus
spécifique pour un certain X, tandis que le Plan de contrôle est valable pour
le Y et tous les X vitaux.

Enfin, le plan de contrôle indique quand des audits ou des contrôles sont
réalisés en ce qui concerne le processus et les changements du processus,
afin de s'assurer que les changements soient durables.
Figure 10.1

La figure 10.1 présente un modèle de plan de contrôle.

Chaque ligne correspond à un élément qui doit être garanti (X ou Y).

308
Le tableau 10.0 donne une description des différents titres de colonne :
Tableau 10.0
Département, Personne ou groupe responsable de la
individu maintenance et de l'exécution du plan.
Qu’est-ce qui doit Brève description de l'élément de processus qui
être garanti ? doit être géré.
Y ou X projet ? Indiquez si cet élément est un X projet ou le Y
projet.
Spécifications La cible et les spécifications de cet élément pour
répondre au CTQ.
Mécanisme de Description des procédures, des instruments qui
garantie font en sorte que cet élément soit géré dans les
permanent spécifications requises (comme anti-erreur,
conception solide de processus, cartes de contrôle ;
voir les paragraphes suivants).
Plan de mesure Indique comment/si les mesures sont collectées
pour cet élément de processus. Habituellement,
ces données sont représentées dans un control
chart.
Plan de réaction Décrit quelles actions correctives la personne
responsable devra exécuter en cas de déviations.
Le type d'action, le calendrier et le propriétaire
sont indiqués. C’est aussi parfois indiqué dans un
control chart.

Le plan de contrôle est remis au sponsor du projet. Le sponsor est celui qui
autorise le plan. A long terme, le sponsor est intéressé à ce que le plan de
contrôle garantisse que le processus continue d'afficher des performances
au nouveau niveau. Le sponsor en est aussi le responsable final, suite à son
approbation formelle du plan de contrôle.

10.3 Mécanismes de contrôle


Dans ce paragraphe, nous discutons des mécanismes qui peuvent être
utilisés pour s'assurer que l'amélioration soit permanente ou qu’une action

309
soit prise rapidement en cas de déviations. Nous discutons des éléments
suivants : anti-erreur, conception de processus solide et management visuel,
procédures (ou instructions de travail) et cartes de contrôle.

10.3.1 Anti-erreur (Mistake proofing)


L’anti-erreur (ou Poka Yoke) est une technique visant à éliminer les défauts
en :

• Prédisant à quel niveau un défaut peut survenir et en prévenant


l'apparition de ce défaut sur la base des connaissances du processus.
• Détectant rapidement quand une erreur a été commise et en prenant
les actions appropriées avant qu’elle ne conduise à un défaut, ou en
faisant en sorte que le défaut ne passe pas à l'étape suivante.

L'idée de base est de construire un mécanisme qui rende difficile, voire


impossible, que quelque chose se passe mal ou que l'on puisse commettre
une erreur. L’anti-erreur est particulièrement utile dans le cas d’étapes de
processus qui sont répétitives et qui nécessitent une intervention humaine
pouvant comporter des erreurs prévisibles.

Figure 10.2

310
Quelques exemples:

Détecter les Rendre les tâches • Correcteur


erreurs plus faciles orthographique dans
Word.
• Fonction de correction
automatique dans Word.
• Programmer un
enregistreur en utilisant
un code de programme.
• Code de couleurs des fils,
prises et conduits qui vont
ensemble.
Automatiser les • Programmer les caisses
décisions nécessaires enregistreuses pour
calculer le change.
• Programmer les numéros
de téléphone.
Empêcher les Eliminer les erreurs • Verrouillages lorsque les
erreurs possibles photocopieuses sont
ouvertes (arrêt
automatique).
• Serrures avec sécurité
enfants sur les portes de
voiture.

311
La figure 10.3 illustre comment les coûts peuvent augmenter lorsque les
défauts évoluent dans le processus jusqu’au client.

Figure 10.3

Le but ultime est de faire en sorte que rien ne puisse mal se passer (Poka-
Yoke). L’attention doit passer de rechercher les défauts et empêcher qu'ils
n’atteignent le client à rechercher l'erreur et faire en sorte qu'elle ne se
reproduise plus.

Quelques exemples quotidiens de Poka Yoke


Figure 10.4

312
L'approche suivante est utilisée pour créer un Poka Yoke :
1. Identifier et décrire le défaut.
2. Déterminer l'endroit où il se produit et où on le découvre.
3. Analyser le processus où le défaut ou l’erreur se produit.
4. Déterminer la cause première du défaut.
5. Mettre en œuvre et tester le Poka Yoke.
La condition pour un Poka Yoke est de faire en sorte que le problème
n'apparaisse plus, que la solution soit durable, coûte moins de 500 euros, et
soit facile à mettre en œuvre et à maintenir.

10.3.2 Conception de processus solide


Une conception de processus solide (Robust Process Design) permet de
s'assurer que le processus est conçu de manière à ce qu'il réponde aux

313
exigences, même dans des circonstances non idéales. Cela signifie qu'il est
moins sensible aux éléments suivants :

• Aux variations du niveau de compétences des opérateurs.


• Aux variations des conditions d'exploitation, matières premières, etc.

Une conception de processus solide fait partie de la solution et est


considérée dans la phase d'amélioration. Dans le cas de projets de
conception (qui livrent de nouveaux produits ou processus), cela se fait au
début de la phase de conception. Cela simplifie le plan de contrôle final,
parce que quelque chose qui est moins sensible à la variation entraînera
moins de rejets. Un processus solide assure également que la variation du Y
à long terme soit d'une ampleur similaire à la variation à court terme.

Si nous avons par exemple appliqué une analyse de régression dans la phase
d'analyse et que nous sommes arrivés à un lien de 3e ordre entre un X et le
Y, comme illustré dans la figure 10.6, il est sensé de choisir les limites du
champ de travail du X de telle manière que la variation du X entraîne une
variation minimale du Y. X peut par exemple être la température du four et
Y la solidité du produit préparé.

Figure 10.6

10.3.3 Management visuel

314
Une manière simple et logique de veiller à ce que le Y fournisse moins de
variations ou d'erreurs dans notre processus consiste à employer le
management visuel. En des termes simples, cela signifie que nous rendons
visible ce qui doit se passer et que nous expliquons les éventuelles
conséquences des erreurs à l'aide d'images, de photos ou de véritables
(dommages à des) éléments. Pensez par exemple à un manuel Ikea : il ne
comporte pas de texte, et il est pourtant clair. Même les personnes qui ne
savent pas lire peuvent voir comment monter une armoire. Il ne dépend
pratiquement pas de la langue et les avertissements concernant les
éléments auxquels il faut faire plus attention ou ce qui pourrait mal se
passer sont indiqués par des points d'exclamation ou des images. Un
Figure 10.7 Niveau d'huile d'un carter de transmission avec voyant vert et rouge.

chapitre séparé est consacré au management visuel dans la formation Lean.

10.3.4 Procédures / Instructions de travail


Les procédures fournissent la séquence documentée des étapes et autres
instructions qui sont nécessaires pour mener à bien une activité. La
technologie et la méthode de travail sont documentées par écrit afin de
faciliter pour tout le monde l’exécution correcte du travail. La rédaction
d'une instruction de travail cohérente qui n'est pas sujette à interprétation
est parfois sous-estimée.

315
De nombreuses organisations disposent d'un système de qualité dans lequel
la méthode est définie dans un manuel qualité, des procédures et des
instructions. Beaucoup de ces systèmes sont certifiés ISO. Les procédures et
les instructions doivent être rédigées de manière conforme aux formats
existants et il y a souvent une instruction qui décrit comment une
instruction doit être réalisée. L'efficacité des procédures / instructions
dépend effectivement de la façon dont elles correspondent à la pratique
quotidienne et dans quelle mesure elles sont appliquées par les employés.

Quelques lignes directrices pour des procédures efficaces :

• Soyez complet : fournissez suffisamment d'informations afin que les


nouveaux employés puissent les utiliser pour effectuer le travail.
• Soyez spécifique : décrivez exactement quelles actions doivent être
exécutées et où et quand elles doivent être exécutées. Précisez les
tâches et les responsabilités.
• Maintenez la procédure simple.
• Utilisez la règle 80/20 : n’incluez pas tous les problèmes et toutes les
exceptions dans la procédure. Concentrez-vous sur les intrants les plus
importants qui influencent les outputs.
• Suivez les normes : conformez-vous au système de qualité existant.
• Impliquez les utilisateurs dans la rédaction et la conception de la
procédure / instruction de travail.
• Testez l'instruction avant de la mettre en pratique. La meilleure solution
consiste à la faire exécuter par quelqu'un qui n'était pas présent lors de
sa rédaction.
• Formez tous les utilisateurs aux procédures et documentez la formation
pour les futurs utilisateurs. Assurez-vous que tout le monde en ait pris
connaissance et soit formé (checklist à parapher par l'utilisateur formé).
• Réalisez des audits pour vous assurer du respect des procédures.

10.3.5 Cartes de contrôle


Les cartes de contrôle (Control Charts), également connues sous le nom de
Contrôle statistique des Processus (SPC – Statistical Process Control) ou
316
graphiques de comportement de processus, sont des outils qui sont utilisés
pour déterminer si un processus de production ou d'entreprise est « sous
contrôle » statistiquement parlant. Les Control Charts sont :

• Un outil basé sur les statistiques pour surveiller un processus en temps


réel.
• Une représentation graphique qui montre la performance du processus
au fil du temps.
• Un ensemble de règles pour déterminer quand un processus est sous
contrôle statistiquement parlant, et quand des actions correctives sont
nécessaires.
• Un déclencheur pour initier le plan de réponse (dans le cadre du
plan de contrôle).

Figure 10.8
Un control chart peut être fait pour chaque X ou Y que vous souhaitez
contrôler. La moyenne (représentée par la ligne centrale) est basée sur au
moins 25 points collectés sur une période suffisamment longue pour voir
toutes les variations de processus.

Les limites de contrôle (supérieure et inférieure) correspondent


généralement à +/- 3 écarts-types à partir de la ligne centrale. Elles sont
indépendantes des spécifications. Chaque point de données peut être une
mesure individuelle ou peut être basé sur plusieurs mesures à l'intérieur
d'un groupe. Un processus est considéré comme statistiquement sous
317
contrôle lorsque tous les points de données varient de façon aléatoire
autour de la ligne médiane et se situent dans les limites de contrôle.

Une action corrective est nécessaire lorsque :

• Des points isolés sont en dehors des limites de contrôle.


• Des tendances à long terme montent ou descendent.
• La moyenne s'écarte de la cible.

Figure 10.9

Il existe des règles qui signalent les tendances et les écarts susmentionnés.
On les appelle les « Western Electric rules ». Ces règles sont largement
appliquées et sont basées sur la division de la zone dans la figure 10.10.

318
Figure 10.10

Des actions correctrices sont nécessaires dans les cas suivants de variation
de cause spéciale :
• Un point ne se trouve pas dans la zone A.
• Deux des trois points consécutifs tombent dans la zone A ou en dehors.
• Quatre des cinq points consécutifs tombent dans la zone B ou en
dehors.
• Neuf points consécutifs sont du même côté de la ligne médiane.
Toutes ces situations peuvent être qualifiées de spéciales, en ce sens qu'on
ne les trouverait pas souvent avec des points aléatoires d'un ensemble de
données à répartition normale. C'est pourquoi la transgression de ces
« rules » est souvent appelée « Special Cause Variation », tandis que si le
processus ne transgresse pas de règles, il est question de « Common Cause
Variation ». Cf. aussi $A1.5.2.

Dans Minitab, vous pouvez adapter et activer ou désactiver ces règles (et
d'autres règles).

Il existe de nombreux types de cartes de contrôle, chacun avec son propre


ensemble de règles, semblables aux règles mentionnées ci-dessus. Comme
indiqué, la carte de contrôle ainsi que la limite de contrôle supérieure (UCL –
Upper Control Limit) et la limite de contrôle inférieure (LCL – Lower Control
Limit) sont indépendantes des spécifications du client (USL et LSL) qui sont
utilisées pour la capacité de processus. Les spécifications du client sont
déduites de la voix du client, tandis que les limites de contrôle dans les

319
cartes de contrôle représentent la voix du processus (VOP). Pour clarifier,
voici une liste des différences :

Tableau 10.1

Limites des spécifications clients Limites de contrôle (VOP)


(VOC)
Basées sur les souhaits et exigences du Basées sur le plan d'échantillonnage et
client la performance démontrée
Aident à déterminer si le processus Aident à déterminer si le processus est
produit des défauts sous contrôle statistiquement parlant
Tracées sur des histogrammes Tracées sur des control charts
Changent lorsque les souhaits et Changent quand il y a un changement
exigences clients changent significatif dans le processus
Représentent la Voix du Client Représentent la Voix du Processus

Le type de carte de contrôle dépend notamment du type de données :


continue ou discrète (« attribute »). La figure 10.11 de l'assistant de Minitab
illustre quelles sont les cartes de contrôle fort utilisées qui sont appliquées
dans quelle situation :
Figure 10.11

320
Minitab vous aide à sélectionner le bon control chart pour une situation
donnée. Les comptages sont considérés comme discrets à ce niveau. On
entend par « sous-groupes » que les données des échantillons constituent
un ensemble de nombres correspondants qui disent par exemple quelque
chose sur un lot ou un échantillon. Dans la production continue, il peut s'agir
de 5 mesures d'échantillon qui se présentent lors d'un tour d'une ligne de
production.
On entend par défauts par unité que l'on mesure non seulement le nombre
d'erreurs, mais aussi que le groupe dans lequel se trouvent ces erreurs n'a
pas toujours la même taille.

Exerçons-nous avec un exemple :


Exemple 1

Figure 10.12
Une équipe Lean Six Sigma du département IT travaille à l'amélioration du
service aux clients qui appellent le helpdesk. Après le pilote d'améliorations
au cours de la phase Améliorer, l'équipe veut mettre en place une carte de
contrôle pour mesurer le nombre de fois par jour où un client est mis en
attente par l'employé pour demander de l’aide à un collègue pour répondre
321
à la question du client. On enregistre le nombre d’appels pendant un certain
nombre de jours, ainsi que le nombre de fois où une personne a été mise en
attente. Ces informations sont reprises dans la feuille de calcul « Helpline
Calls.MTW ».

Nous avons affaire à des données de comptage dont la possibilité


d’occurrences dans chaque sous-groupe n'est pas constante (le nombre
d'appels est différent chaque jour), ce qui ressort dans l'U-chart. Nous
utilisons à cet effet l'Assistant de l'image 10.11 et nous complétons ensuite
suivant la fig. 10.13.
Minitab: Assistant > Control Charts > U-chart

Figure 10.13

Résultat : la figure 10.14 suivante illustre le résultat. Il s'avère que le


processus est stable et ne nécessite aucune adaptation. C'est probablement
le cas parce qu'il s'agit d'un processus déjà amélioré. Dans cette phase de ce
projet, il est indiqué dans le plan de contrôle ce qu'il faut précisément faire
si les données du control chart indiquent qu'une correction est nécessaire.

322
Figure 10.14

Exemple 2
Des commandes sont reçues par le service des commandes. Les mesures
concernent le temps que les clients doivent attendre avant d’être pris en
charge. Les longs délais d'attente posent problème, car les clients peuvent
abandonner et raccrocher, et la commande est donc perdue. Une
amélioration est assurée. Dans les données, on peut le voir dans la colonne
avec la situation « old » et « new ». La feuille de calcul s'intitule : « Order
taking with improvement.MTW ».

Figure 10.15 323


Nous sommes confrontés à des données continues (mesure de temps) et à
des points de données individuels (donc pas de sous-groupes). Cela nous
donne d'après le schéma dans l'assistant de Minitab un « Individuals -
Moving Range Chart ». Il est en outre question d'une situation « Before » et
d'une situation « After » (avant-après). Dans Minitab17, cela peut aussi être
assuré via l'assistant :

Minitab: Assistant -> Before/After Control Charts -> Before/After I-MR Chart.

Figure 10.16
Nous les complétons suivant la figure 10.17.

324
Figure 10.17

Nous obtenons alors le résultat dans la figure 10.18 :

Figure 10.18 Before/After I-MR Chart of Ave. Hold Time by situation


Summary Report

Was the process standard deviation reduced? Comments


0 0,05 0,1 > 0,5 After a process change, you may want to test whether the standard deviation or mean changed:
• The standard deviation was reduced by 43,9% (p < 0,05).
Yes No
• The mean is significantly lower (p < 0,05). Make sure the direction of the shift is an
P = 0,014
improvement.
Consider whether these changes have practical implications.
Did the process mean change?
0 0,05 0,1 > 0,5

Yes No
P < 0,001

old new
20
Individual Value

10 UCL=10,14
_
X=6
LCL=1,86
0

10
Moving Range

5 UCL=5,08

__
MR=1,56
0 LCL=0
1 4 7 10 13 16 19 22 25 28 31

Stage N Mean StDev(Within) StDev(Overall)


Control limits use
old 23 11,174 2,4581 3,7978
new 10 6 1,3790 1,2472 StDev(Within)

Le graphique du dessus représente les mesures individuelles elles-mêmes et


celui du bas la différence (absolue) entre 2 mesures consécutives. C'est ce

325
que l'on appelle le Moving-Range. Ce dernier nous informe sur la diffusion
ou la variation à court terme. Les points rouges sont les points qui
nécessiteraient des mesures correctives.

Les deux valeurs P indiquent si la répartition a significativement baissé et si


la moyenne est sensiblement différente. C'est le cas pour les deux. Cela
démontre de manière fiable d'un point de vue statistique que le projet
d'amélioration est couronné de succès.

Appliquez les cartes de contrôle à n'importe quel élément de votre plan de


contrôle qui nécessite un Statistical Process Control. Respectez pour cela la
procédure suivante :

1. Déterminez quelle mesure tracer.


2. Collectez les données initiales, concevez et faites la carte de contrôle.
3. Après 25 mesures, définissez les limites de contrôle et la moyenne.
4. Continuez à recueillir des données et tracez-les de façon continue.
5. Utilisez les règles décisionnelles du control chart pour reconnaître
quand une action corrective est nécessaire.
6. Activez le plan de réponse du plan de contrôle lorsqu'une action
corrective est nécessaire.

10.4 Analyse du système de mesure


Etant donné que nous voulons rester dans la situation améliorée et puisque
quelques X vitaux doivent probablement rester sous contrôle de manière
plus précise, il est utile de revenir dans cette phase à l'analyse du système
de mesure. Nous voulons que les valeurs indiquées des X vitaux soient
suffisamment précises et correctes. C'est pourquoi nous vérifions pour le Y
et les X vitaux s'ils satisfont à ce souhait. Nous utilisons pour cela les mêmes
outils que dans la phase de mesure : nous contrôlons la Résolution, la
Précision, la Linéarité, la Stabilité, la Répétabilité et la Reproductibilité, pour
autant que ces termes s'appliquent à nos X et Y. Les directives restent les
mêmes : pas plus de 10% de bruit, et pas trop d'influence de l'opérateur
326
(reproductibilité) ou d'influence de l'instrument de mesure (répétabilité). Si
les instructions de travail ou les procédures sont adaptées, vérifiez si les
collaborateurs exécutent tous la nouvelle méthode de travail toujours
suivant la même nouvelle méthode définie et si son enregistrement est bien
assuré.

10.5 Exercices
Anti-erreur
Quel est le terme japonais pour anti-erreur ?

Et que signifie-t-il ?

327
328
CHAPITRE 11 : MISE EN OEUVRE ET
CONFIRMATION DE L’AMELIORATION

11.1 Introduction
A ce stade du projet, la solution a déjà été choisie et peut être déjà testée à
petite échelle dans la pratique. Dans ce chapitre, nous discutons de la mise
en œuvre complète de la solution. Le sujet « gestion de projet » du plan en
12 étapes intervient ici. Il existe une solution définie qui doit être mise en
œuvre de manière contrôlée dans l'organisation.

Après la mise en œuvre complète de la solution, nous voulons démontrer


que la solution a amélioré la performance du processus tel que défini dans
l'objectif.

11.2 Mise en œuvre


Comme indiqué, le but de cette étape est de mettre en œuvre la solution de
manière contrôlée dans le processus et l'organisation. Planifier prudemment
la mise en œuvre est une condition. De nombreuses organisations ont
adopté leur propre méthode de gestion de projet. Prince2 en est un
exemple. Il est recommandé de suivre la méthode de gestion de projet
existante, à condition d’avoir établi un plan de mise en œuvre ou un plan
d'approche comprenant au moins les éléments suivants :

• Définition du projet
• Organisation du projet
• Planification du projet
• Ressources nécessaires et budget
• Plan de gestion des risques
• Plan de communication
• Besoins de formation

329
Le « projet » - par exemple en termes de Prince2 - est le projet de mise en
œuvre de la trajectoire LSS. La définition du projet contient la solution, le
plan de contrôle et les mécanismes de contrôle.

11.3 Confirmer l’amélioration


Après la mise en œuvre de la solution, il faut vérifier si le projet Lean Six
Sigma a réalisé l'amélioration prévue. Dans le chapitre 5, nous avons
formulé un objectif d'amélioration sur la base de la performance de base.
Vous devez maintenant calculer de nouveau la capacité de processus pour
déterminer la nouvelle performance du processus. Au moyen de tests
d'hypothèse (voir chapitre 7), on peut déterminer si cette amélioration est
significative et si elle répond à l'objectif. Recherchez d'éventuelles étapes
complémentaires pour réaliser l'amélioration visée si la solution actuelle n'y
est pas encore parvenue (complètement).

Vous pouvez pour cela appliquer les étapes suivantes :

1. Parcourez toutes les étapes de votre processus DMAIC pour vérifier


si vous n'avez rien raté en cours de route.
2. Vérifiez votre précision de mesure et votre analyse du système de
mesure.
3. Revenez au brainstorming au début de la phase d'analyse ; des X
ont-ils pu être manqués (on a trop demandé la voie connue) ou des
X ont-ils été mis de côté et se sont-ils ultérieurement avérés être
importants ? Organisez à nouveau un brainstorming avec
éventuellement d'autres experts qui pourront vous en dire plus sur
le processus et faites une nouvelle sélection des X vitaux devant
éventuellement encore être testés.
4. Parcourez la liste de X vitaux que vous aviez déjà filtrée. Quelle
mesure de variation, soit le glissement dans la moyenne, pouvez-
vous expliquer en comparaison avec l’objectif d'amélioration que
vous aviez défini à la fin de la phase de mesure ? Vous pouvez
procéder en parcourant encore une fois vos tests d'hypothèse et en
additionnant les effets que vos X vitaux ont sur le comportement
de Y. Si vous n'avez pas assez, vous avez manqué un X.

330
5. Collectez de nouvelles données sur ce(s) X avec les performances
de votre Y (flat file) et voyez si vous pouvez à présent expliquer la
variation dans Y.
6. Si vous pouvez expliquer une variation suffisante de Y avec vos X
vitaux originaux, revenez à l'exécution de votre pilote et à la mise
en œuvre de vos améliorations. Vérifiez dans le journal du pilote
dans quelle mesure les paramètres optimaux et les méthodes de
travail que vous aviez développées pour les paramètres optimaux
sont effectivement suivis. Exécutez à nouveau le pilote si nécessaire
et mesurez encore une fois votre capacité de processus.

Proposez des projets supplémentaires s'il s'avère qu'il y a encore une marge
d'amélioration. Incluez-les dans les « leçons tirées » et dans la
documentation du projet.

Dans certains cas, il faut beaucoup de temps avant que la mise en œuvre
complète soit terminée ou jusqu'à ce que suffisamment de nouvelles
données de processus aient été recueillies. Par exemple, dans le cas d'une
mise en œuvre internationale d'un processus qui a été mis à l'essai dans un
marché local. Dans ce cas, la mise en œuvre doit être remise à l'organisation
du projet et le leader Lean Six Sigma clôture le projet sur la base des
améliorations significatives qui ont été réalisées dans le pilote. Si, pour une
raison quelconque, le déploiement d'une partie de la solution est retardé
(par exemple en raison d'ajustements dans les conventions collectives
d'entreprise ou en attendant l'approbation de membres / syndicats, la
suppression progressive des contrats, l'adaptation/nouvelle version d'un
logiciel, etc.), un plan est établi seulement pour la mise en œuvre de ces
éléments de solution, et le projet est remis au sponsor, conformément au
chapitre 12.

331
332
CHAPITRE 12 : CONCLUSION DU PROJET
ET TRANSFERT

12.1 Introduction
Dans ce dernier chapitre, nous discutons de la conclusion du projet, du
transfert au sponsor et de la remise de la documentation du projet.

12.2 Transfert au sponsor


Après la mise en œuvre, le projet peut être remis à l’organisation
hiérarchique. Le premier contact pour ce transfert au Black Belt ou Green
Belt est le sponsor, qui est le propriétaire du problème et, finalement, le
propriétaire de la solution. Lors de la Toll-gate review de clôture, les sujets
suivants sont abordés :

• La sécurisation de la solution.
• Le business case prévu et le business case réel (si la nouvelle capacité
de processus a déjà été déterminée).
• Les enseignements tirés : qu'avons-nous appris et que ferions-nous
encore / différemment désormais ?
• Les possibilités de réplication (en d'autres termes, où peut-on encore
l’appliquer).

Le sponsor est la personne qui déclare le projet conclu.

12.3 Documentation du projet


Une bonne documentation de projet constitue une référence pour le
propriétaire du processus actuel et pour les futurs propriétaires de
processus. C'est pourquoi il est important de documenter les raisons des
changements dans le processus et les solutions mises en œuvre, avec les
avantages qui en découlent. Cela empêche d'avoir à réinventer la roue à
l'avenir. En outre, il est important de définir les leçons tirées pour de futurs
projets afin de s'assurer que le processus de réalisation de projets au sein de
333
l'organisation s'améliore avec le temps. Le format et la structure de la
documentation sont définis par l'entreprise. Dans les organisations qui
travaillent beaucoup avec Lean Six Sigma, il est possible qu'un système de
suivi Lean Six Sigma devant être mis à jour soit utilisé. Une autre possibilité
consiste à inclure certains documents cruciaux, comme une nouvelle
procédure de travail et le plan de contrôle, dans le système de qualité, afin
que ces points soient automatiquement audités à l'avenir.

Attention : la documentation du projet n'est pas une source inépuisable de


tous les dossiers, données et communications, mais un dossier
soigneusement organisé des principaux aspects du projet.

Les sujets suivants sont des éléments récurrents dans la documentation du


projet :

• Le résumé du projet.
• La définition du problème.
• Les données de référence de la performance initiale du processus.
• Une liste des causes principales (X vitaux).
• Les solutions retenues pour ces X.
• Les mécanismes de contrôle.
• Les métriques de performance (DPMO, capacités de processus).
• Les leçons tirées / meilleures pratiques.
• Les résultats financiers.
• La réplication de l'amélioration dans d'autres domaines.

De nombreuses organisations ont un service d’archivage des projets.

12.4 Leçons tirées, suggestions de projets de suivi,


poursuite de la perfection
Puisque le Lean Six Sigma fait partie de l'école de l’Excellence
opérationnelle, non seulement il faut améliorer les processus, mais aussi le
processus d’amélioration des processus, ce qui explique pourquoi les
« Leçons tirées » sont un élément crucial de tout projet Six Sigma. Qu'avons-
334
nous appris de ce projet que nous pourrions faire différemment la prochaine
fois pour avoir encore plus de succès ? Souvent, des meilleures pratiques
peuvent également être tirées du projet et être partagées avec d'autres
chefs de projet ou l'organisation. En outre, de nombreux projets Six Sigma
fournissent de précieux renseignements sur l'organisation et ses processus,
ainsi que des idées d'améliorations possibles, ce qui peut conduire à de
nouveaux projets d'amélioration. L'objectif des organisations d’excellence
est de devenir toujours meilleures. L'objectif n'est pas d'atteindre la
perfection en une seule étape, mais d’y travailler progressivement, pour
devenir un peu meilleur à chaque fois.

12.5 Audit projet


Certaines organisations auditent les projets d'amélioration en termes
d’exécution et de résultats obtenus. Ce n'est pas un but en soi, mais un
moyen de réussir à mieux faire des projets. On veut apprendre de
l'exécution des projets et de l'évaluation de leur faisabilité. Cela permet
ensuite de gagner l’approbation de nouveaux projets et la formation de
nouvelles ceintures. En outre, le champion, qui initie ces audits, sera en
mesure d'utiliser les résultats pour générer plus d'engagement du MT ou du
Board pour l'amélioration des processus.

335
336
Annexe 1 : STATISTIQUES DE BASE

A1.1 Introduction
Les statistiques jouent un rôle important dans la méthodologie Lean Six
Sigma. Dans cette annexe, nous allons discuter des statistiques de base
nécessaires dans la phase de mesure pour analyser le processus en cours et
pour les utiliser ensuite dans la phase d'analyse, pour s'assurer que le projet
Lean Six Sigma soit exécuté correctement et que l’on comprenne les
données.

Un élément important dans les statistiques est de savoir combien la


tendance centrale et la variation sont importantes pour décrire un
processus, en résumant le processus sur la base de quelques chiffres clés.

Tendance centrale: Le « centre » du processus. C'est là que l’on s’attend


à voir la plupart des points de données.

Variation : Nous renseigne sur l’étendue des données. Plus


petite est l’étendue, plus cohérent / fiable /
prévisible est le processus.

La détermination à la fois de la tendance centrale et de la variation est


nécessaire pour décrire un ensemble de données. Il est souvent fait
référence à la tendance centrale, mais on oublie de parler et de quantifier la
variation.

A1.2 Statistiques
Dans le cadre de Lean Six Sigma, les statistiques sont utilisées pour prendre
des décisions objectives qui peuvent être étayées et communiquées
efficacement.

337
Mais que sont les statistiques à proprement parler ? Ci-dessous, quelques
définitions :

1. La méthode quantitative pour collecter, classer, présenter et analyser des


données numériques et tirer des conclusions basées sur ces données.

2. Une partie des statistiques appliquées, qui concernent la collecte et


l'interprétation de données quantitatives et l'utilisation de définitions pour
estimer les paramètres de la population (en général concernant la tendance
centrale et la variation).

3. La procédure mathématique pour décrire les opportunités et les


distributions sur la base d'observations.

4. Un certain nombre de théories mathématiques qui aident à analyser des


données en ajoutant de la signification aux résultats.

Les sujets couverts vont jouer un rôle dans les statistiques que nous
appliquons dans Lean Six Sigma.

A1.3 Valeurs statistiques


Dans l'introduction, il est précisé que, lors de l'analyse des données et
l'amélioration des processus, Lean Six Sigma utilise les notions de tendance
centrale et de diffusion des données de processus. Ces deux notions clés
peuvent être exprimées avec différentes mesures :

Tendance centrale :

• Moyenne
• Médiane
• Mode

338
Répartition (ou variation)

• Portée (« range »)
• Distance interquartile (« Inter Quartile Range »)
• Ecart moyen (« Mean deviation »)
• Variance
• Ecart-type

Pourquoi accorde-t-on tant d'attention aux notions relatives à la déviation ?

La déviation incontrôlée dans les processus et produits entraîne des défauts,


qui conduisent à des retouches et des rejets, à une augmentation des coûts
et des délais. En définitive, il en résulte un manque de possibilités pour
répondre aux attentes du client. Elle conduit à des processus qui ne sont pas
fiables et sont imprévisibles. C'est pourquoi de nombreux projets Lean Six
Sigma visent à faire en sorte que la déviation soit gérable et à la réduire.

Dans les paragraphes suivants, les notions sont expliquées plus en détail.

A1.3.1 La moyenne
La moyenne est la somme de toutes les valeurs divisée par le nombre de
valeurs (le nombre d'observations). La formule est la suivante :

fg =
∑i
G

fg(« X Bar ») est le signe de la moyenne d'un échantillon, tandis que μ


(« mu ») représente la moyenne de l'ensemble de la population. Le calcul
des deux est le même, seuls le nom et le symbole sont différents.

339
Figure A1.0

La moyenne est sensible aux valeurs extrêmes.

A1.3.2 La médiane
La médiane est la valeur centrale d'une série de données ordonnées par
taille. Lorsque le nombre d'observations est pair (il n'y a pas une valeur
centrale unique), la médiane est la moyenne des deux valeurs centrales.

Par exemple, dans la série suivante, où les valeurs de mesure sont classées
dans l'ordre du plus petit au plus grand :

X1, X2, X3, X4, X5, X6, X7, X8, X9, X10, X11

La valeur de X6 est la médiane, car il y a 5 plus grands et 5 plus petits.

Dans la série suivante :

X1, X2, X3, X4, X5, X6, X7, X8, X9, X10, X11, X12

On calcule la grandeur de la médiane comme suit : (X6+X7)/2

La médiane est moins sensible aux valeurs extrêmes que la moyenne.

340
A1.3.3 Le mode
Le mode est principalement utilisé avec des données discrètes, comme le
dénombrement. Le mode est la valeur la plus fréquente. S’il y a deux
groupes ou valeurs qui se produisent le plus souvent, il est question de
répartition bimodale.
Figure A1.1

A1.3.4 Etendue
Quand on parle de notions relatives à la variation, la portée (range) est la
notion la plus simple. La portée est la valeur la plus élevée diminuée de la
plus petite valeur d'un ensemble de données. Cela la rend facile à
déterminer, mais elle est très sensible aux valeurs aberrantes.

Exemple : Dans l'ensemble des données présentées ci-dessous du nombre


d'appels téléphoniques à un helpdesk par jour, la portée (72-15) = 57 appels.

40, 54, 72, 48, 35, 56, 50, 24, 40, 30, 15, 40, 15, 40

341
A1.3.5 Quartiles
Les quartiles sont liés à la médiane. Les quartiles sont les (3) valeurs qui
divisent une série ordonnée d'observations en quatre parties égales. Chaque
quartile contient 25% des observations. Voir l'exemple ci-dessous.

15, 15, 24, 30, 35, 40, 40, 40, 40, 48, 50, 54, 56, 72

1er quartile 2e quartile 3e quartile

Le deuxième quartile est égal à la médiane, le premier et troisième quartiles


peuvent être déterminés après la définition de la médiane, en prenant la
médiane de la moitié inférieure (Q1) et de la moitié supérieure (Q3). Vous
avez besoin de ces quartiles pour déterminer l'entité suivante :

A1.3.6 Distance interquartile (IQR)


L’IQR (Inter Quartile Range) est une autre mesure de la variation, mais pour
la portée qui est calculée en déduisant le 3e quartile et le 1er quartile l'un de
l'autre. Si nous utilisons l'exemple du paragraphe précédent, cela donne :

IQR = (Q3-Q1) = (50 – 30) = 20

L'IQR est beaucoup moins sensible aux valeurs extrêmes que la portée. 50%
des valeurs de mesure se trouvent par définition dans l'IQR. L'IQR signifie en
anglais Inter Quartile Range.

A1.3.7 Ecart moyen


L'écart moyen est un terme qui n'est pas souvent utilisé, mais qui est facile à
comprendre. Pour calculer l'écart moyen d'un ensemble de données, vous
commencez par déterminer la moyenne. Ensuite, vous calculez par
observation la valeur absolue de la différence avec la moyenne. En calculant
ensuite la moyenne des différences trouvées, on obtient l'écart moyen
(Mean Deviation).

342
A1.3.8 Variance
La variance est notre prochaine mesure de la variation. Elle est calculée de
façon analogue à l'écart moyen. La différence est que les écarts par rapport
à la moyenne sont d'abord élevés au carré, avant le calcul de la moyenne.

Le symbole de la variance est   . La formule suivante peut être utilisée :

∑l g 'k
jmn%ij : µ
 =
G

Voir l’exemple ci-dessous.

Figure A1.2

A1.3.9 Ecart-type
L'écart-type est la mesure de la variation qui est la plus couramment
utilisée. Le symbole de l'écart-type est σ. C'est la racine carrée de la variance
et il se calcule comme suit :

∑l
jmn%ij : µ'
k
σ=o
G

343
Tant l'écart-type que la moyenne sont nécessaires pour décrire une
distribution normale.
A1.4 Echantillon par rapport à la population
Dans le paragraphe précédent, nous avons défini des notions statistiques
importantes. Moyenne et écart-type peuvent se rapporter à l'ensemble de
la population (par exemple « tous les Belges ») ou aux données qui ont été
utilisées pour un échantillon (par exemple, 1000 personnes qui ont rempli
un questionnaire). Les symboles et les formules qui sont utilisés pour
l'ensemble de la population et pour un échantillon sont différents. Voici les
symboles et formules pour un échantillon et pour la population :
Population Echantillon

Moyenne µ fg

∑l
jmn%ij :µ'
k ∑l g k
jmn%ij : i'
Variance  =  =
G G:O

∑l
jmn%ij :µ'
k ∑l g k
jmn%ij : i'
σ=o s=o
Ecart-type
G G:O

La différence réside dans la déduction de 1 au nombre de valeurs de


l'échantillon. Cela donne une meilleure estimation de la distribution traduite
à l'ensemble de la population. Dans la pratique, vous ne serez normalement
pas censé calculer la variance ou l'écart-type manuellement. Il est par contre
important de comprendre le concept et de pouvoir faire la distinction entre
les observations d'un échantillon et la différence avec la population. Plus
tard, nous allons apprendre à projeter (les paramètres de) l'échantillon sur
l'ensemble de la population.
Une entité supplémentaire pour exprimer la variation est le « coefficient de
variation », ou « l'écart-type relatif ». Il s’agit de l'écart-type divisé par la
moyenne. L'avantage est que cette entité n'a pas de dimension, autrement
dit, elle n'a pas d'unité de mesure. La formule est la suivante :
5
Coefficient de variation = x 100%
p

344
A1.5 La distribution des données

A1.5.1 Distributions
Dans les paragraphes précédents, nous avons utilisé la moyenne et l'écart-
type pour résumer les données qui sont générées par un processus. Une
autre manière de résumer les données consiste à présenter la distribution
en tant que graphique. La distribution permet de voir combien de fois
(fréquence) certaines données apparaissent dans un ensemble de données.
Le « pic » de la distribution indique la tendance centrale. L’étendue de la
distribution nous renseigne sur la variation des données.
Figure A1.3

Quelques exemples de distributions :

En analysant la distribution, nous pouvons distinguer des profils qui sont


difficiles à voir dans un simple tableau ou en nombres. Différents processus
montreront différents profils. Tant la variation naturelle que la variation à
cause spéciale apparaissent dans la distribution.

345
Dans une distribution de données symétrique idéale, une distribution
normale, la moyenne, la médiane et le mode auront la même valeur. S'ils
sont séparés, cela signifie que la distribution est asymétrique. Si des valeurs
supérieures sont surreprésentées par rapport au mode, elle est
« asymétrique positive ». Si les valeurs inférieures sont surreprésentées par
rapport au mode, c'est une « asymétrique négative ».

Figure A1.4

La notion de « kurtosis » (coefficient d’aplatissement) est une mesure de la


« forme en pointe » de la distribution. Un « kurtosis » élevé indique une
distribution, ou des données, avec un pic élevé. Cela signifie que les valeurs
extrêmes, hautes ou basses, sont rares. Un « kurtosis » faible indique une
distribution plate des données. Dans ce cas, la variance est causée
principalement par un nombre relativement important de valeurs moins
extrêmes. Le kurtosis est aussi appelé « bombage ».

A1.5.2 Histogramme
L'histogramme est un outil graphique fort employé pour illustrer les
distributions. Il est créé en prenant la différence entre les résultats les plus
élevés et les plus bas et en répartissant les observations parmi un certain
nombre d'intervalles de largeur égale, appelés « classes ». Le nombre
d'observations dans chaque intervalle est ajouté et le nombre (fréquence)
Figure
est A1.5 comme une barre par intervalle.
représenté

346
Les caractéristiques d'un histogramme :

• Outil de qualité largement reconnu et utilisé.


• Fournit un aperçu rapide de la façon dont se comporte un processus.
• Permet de visualiser la forme de la distribution.
• Donne une idée de la distribution des données.
• Vous permet d'estimer la tendance centrale.
• Est très visuel, facile à comprendre et à interpréter.

Un histogramme est habituellement divisé en 5-12 classes. Une règle de


base consiste à prendre la racine carrée du nombre total d'observations
pour déterminer le nombre de classes (par exemple, 100 observations
signifie 10 classes).

Interprétation des données d’un histogramme

Lorsque la variation est naturelle, en d'autres termes, sans cause spéciale,


l'histogramme ressemblera à celui présenté dans la figure suivante, avec des
fréquences élevées autour de la tendance centrale, diminuant vers les
extrêmes. Le processus sous-jacent qui génère les données est stable et la
valeur de chaque point de données est aléatoire et colle à la distribution.
C'est ce que l'on appelle la « Cause normale de la variation » ou « Common
Cause Variation ».

347
Figure A1.6

Lorsque la variation a une cause spéciale, cette observation ne tient pas


dans le reste de la distribution. Deux exemples en sont donnés dans la
figure A1.7. L'histogramme central illustre une valeur aberrante.
L'histogramme de droite présente un motif bimodal. Les deux cas tombent
dans la catégorie : Cause spéciale de la variation (Special Cause Variation).
Dans les projets Lean Six Sigma, nous recherchons les causes sous-jacentes
(les X), ce qui signifie que nous ne rejetons PAS ces valeurs aberrantes ou
motifs particuliers.

Figure A1.7

348
A1.5.3 Distribution normale
La distribution normale de Gauss (du nom du mathématicien allemand Carl
Friedrich Gauss) est une distribution continue avec deux paramètres, la
valeur moyenne μ et l'écart-type σ. En raison de sa forme, elle est
également appelée « courbe en cloche » ou courbe de Gauss.

Figure A1.8

1, 0

V ar iable
mean:-2 stdev :0,7
0, 8
mean: 0 stdev :2
mean: 0 stdev :0,4
mean: 0 stdev :1
0, 6

0, 4

0, 2

0, 0
-5 -4 -3 -2 -1 0 1 2 3 4 5

L'axe des X contient toutes les valeurs possibles que peuvent montrer les
observations. L'axe des Y contient la probabilité qu'une certaine valeur se
produise. La ligne ne touche jamais l'axe des X. La probabilité qu'une
certaine valeur se produise devient de plus en plus petite à mesure que vous
vous éloignez de la moyenne. La surface sous le graphique est comptée pour
1 (ou 100%). On a en effet toujours une valeur lors d'une déduction.

349
De nombreux phénomènes peuvent être décrits en utilisant la distribution
normale. Ce sont des phénomènes où la distribution est concentrée
symétriquement autour d'une valeur centrale, tandis que les écarts à cette
valeur centrale deviennent moins probables à mesure que l'écart est plus
grand. Ce type de distribution se produit quand, à l'apparition de
circonstances particulières, il y a une probabilité égale qu'elle conduise à
une réduction ou à une augmentation des valeurs observées. Dans le cas de
délais de livraison, où les circonstances particulières sont plus susceptibles
de conduire à une augmentation qu'à une diminution du délai, la
distribution ne sera pas symétrique, mais décalée vers la droite.

Le théorème limite centrale stipule que, lorsque vous prenez plusieurs


échantillons d'une population et placez la moyenne de chaque échantillon
dans un graphique de distribution (comme un histogramme), vous finirez
toujours avec une distribution normale, indépendamment de la distribution
de la population. Cela peut parfois être utile pour obtenir des données
normales.

La distribution normale n'est pas toujours une bonne approche. Dans le cas
d'une croissance exponentielle, ou dans le cas de distributions asymétriques
comme pour les revenus, les prix et les délais de livraison, qui sont orientées
à droite, d'autres distributions fournissent une meilleure adéquation. Les
distributions comme la distribution lognormale ou la distribution
exponentielle peuvent fournir une meilleure approche. Puisque les
statistiques des distributions normales sont plus puissantes et plus simples,
nous tenterons dans de nombreux cas d'aboutir autant que possible à une
(approche de la) distribution normale. Eventuellement, nous pouvons
transformer des données en une distribution (plus) normale, mais il est dans
de tels cas plus facile d'utiliser les statistiques qui sont spécialement créées
pour les données qui ne sont pas réparties normalement, les statistiques
« sans répartition ». Minitab dispose à cet effet d'un certain nombre
d'outils, qui sont disponibles sous l'onglet « non parametrics ».

350
Figure A1.9
Les distributions normales peuvent varier par rapport à deux paramètres :

1. Différences de moyenne µ.

Figure A1.10
2. Différences d’écart-type σ

351
Figure A1.11

Comme indiqué, la somme de la surface sous la courbe est de 1 (ou 100%).


Dans le cas d'une distribution normale, ce qui suit s'applique :

• 68% des valeurs se situent entre -1 écart-type et +1 écart-type.


• 95% des valeurs se situent entre -2 écarts-types et +2 écarts-types.
99,7% des valeurs se situent entre -3 écarts-types et +3 écarts-types.

Figure A1.12

352
A1.6 Exercices
Unités statistiques
Rapidité du Satisfaction
Mois check-out Amabilité client globale

Jan 8,75 7,91 7,52


Fév 8,59 7,74 7,33
Mars 8,6 7,81 7,7
Avr 8,45 7,98 7,64
Mai 8,6 8,01 7,81
Juin 8,39 7,79 7,54
Juil 8,58 7,87 7,83
Août 8,27 7,46 7,28
Sept 8,22 7,45 7,3
Oct 8,41 7,7 7,22
Nov 8,15 7,24 6,89
Déc 8,16 6,77 6,54
Jan 8,41 7,38 7,31
Fév 8,58 7,67 7,32
Mars 8,33 7,15 7,2
Avr 8,32 6,7 6,65
Mai 8,54 7,34 7,36
Juin 8,29 7,03 6,92
Pour le tableau présenté ci-dessus, calculez la moyenne, la médiane et le
mode de la satisfaction totale.

Histogramme
Prenez les valeurs de la colonne de la satisfaction totale de l'exercice
précédent. Dressez un histogramme pour ces données (éventuellement à
l'aide de Minitab).

Ensuite, calculez l'écart-type.

Les données sont-elles distribuées normalement?

353
354
Annexe 2 : INTRODUCTION A MINITAB

A2.1 Introduction
Minitab est un logiciel statistique qui est souvent appliqué dans des projets
Lean Six Sigma. Dans les cours de formation Lean Six Sigma de The Lean Six
Sigma Company, cet outil est utilisé comme base. Minitab prend en charge
les analyses statistiques et, lorsqu'il est utilisé correctement, augmente la
qualité du projet. Dans cette annexe, nous présentons Minitab. Vous
trouverez plus d'informations sur Minitab et les licences sur :
www.minitab.com

A2.2 Construction et lay-out


Minitab est constitué de feuilles de données, de graphiques, de sessions
d'analyse et plus encore. Nous reviendrons sur ce point dans les
paragraphes suivants. Dans un projet Lean Six Sigma, vous voulez garder
toutes les analyses ensemble sous un projet. La collecte d'analyses et de
fichiers de données peut être stockée sous un projet avec un nom spécifique
de projet (un fichier .mpj).
Figure A2.0

355
La base des analyses des données est la feuille de calcul. Elle ressemble à un
tableur, mais n'en est pas un. Les données doivent être stockées dans des
colonnes comme un « fichier plat » avec des en-têtes de colonne. Chaque
colonne est une variable. Aucune formule n’est utilisée dans la feuille de
calcul, qui ne contient que des données. Chaque feuille peut être stockée
séparément comme fichier .mtw. Minitab utilise en outre une « session
window ». Le résultat des calculs est illustré en tant que texte. C’est
également le journal des actions qui ont été menées. Les utilisateurs
avancés peuvent utiliser cette interface pour entrer des commandes via
l'invite de commande et utiliser des macros.

Figure A2.1

Il existe différentes façons de saisir des données :

• Les saisir directement dans la feuille de travail.


• Les copier et les coller à partir d'Excel (le plus courant).
• Les copier et les coller à partir d'une autre application, comme Access.
• Utiliser un ODBC pour interroger une base de données en temps réel.

356
A2.3 Menus Minitab

Ci-dessous, nous discutons brièvement des différents menus de Minitab.

Le menu Fichier

Figure A2.2
Les éléments qui sont les plus utilisés dans le menu fichier sont : New
(project ou worksheet), Open Worksheet, Open Project et Save Project.

Le menu Editer

La commande la plus utilisée dans le menu Editer est « Edit Last Dialog » afin
de refaire ce qui vient d'être fait, mais autrement, sans devoir parcourir les
menus (c'est aussi accessible avec le raccourci clavier Ctrl-E).

357
Figure A2.3

Le menu Données

Figure A2.4
L'élément qui est le plus utilisé est « Stack Columns » (ou empiler les
colonnes) et « Unstack Columns » (« désempiler »). Cela vous permet de
358
combiner différentes colonnes dans une colonne, ou de diviser une colonne
en plusieurs colonnes.

Le menu Calc

Figure A2.5

Le menu Calc contient beaucoup de choses, y compris les éléments


suivants :

• Calculatrice (cf. figure A2.6) : elle vous permet de réaliser des


opérations mathématiques et statistiques sur votre flat file avec des
données.
• Les statistiques de colonne (pour calculer les éléments statistiques
d'une colonne, comme Mu et Sigma).
• Faire des données profilées.
• Données aléatoires.

359
Figure A2.6

Le menu Stat

Le menu de stat est le menu qui est le plus utilisé. Il contient la plupart des
fonctions statistiques et des analyses :

• Statistiques de base
• Régression
• ANOVA
• DoE
• Détermination de tailles d’échantillon, ...

Ces fonctions sont décrites ci-dessous, ou dans la phase d'analyse.

360
Figure A2.7

Le menu Graph

Figure A2.8 361


Le menu graphique contient plusieurs façons de créer des graphiques à
partir des données :

• Séries chronologiques
• Boîtes à moustaches et graphique de points
• Histogrammes
• Diagrammes à barres et à secteurs
• Graphique de contours

Le menu Editor

Les éléments les plus utilisés du menu d'édition sont « Find » et « Replace ».

Figure A2.9

362
Le menu Window

Vous pouvez retrouver dans le menu Window l'écran dont vous avez besoin
parmi les (nombreux) écrans qui sont parfois ouverts dans Minitab. Le
moyen le plus rapide est « Tile » ou « Cascade ».

Figure A2.10

Le menu Help

363
Figure A2.11
Il fournit un soutien dans l'utilisation de Minitab. Le Stat Guide est le manuel
qui peut vous aider à choisir le bon outil au bon moment. L'assistant, qui se
trouve à côté du menu d'aide de la dernière version de Minitab, offre une
fonctionnalité encore plus large et il est facile à utiliser. Avec les Tutorials,
vous êtes accompagné pour vous familiariser avec Minitab.

L’Assistant

La fonctionnalité « Assistant » récemment ajoutée donne notamment,


comme une sorte de « wizard », les arborescences pour arriver à l'utilisation
des bons outils dans Minitab.

Figure A2.12

A2.4 Travailler avec Minitab


Nous expliquons comment Minitab fonctionne sur la base d'un cas. La base
de ce cas est un fichier de données d'une banque qui traite des demandes
de prêt. Le fichier de données contient un mois de travail effectué par
quatre employés. Chaque ligne représente un jour d'un employé. Il existe
différentes façons de faire des erreurs. Les colonnes C5-C8 affichent les
différents types et le nombre d'erreurs. Ci-dessous la feuille de calcul.

364
Figure A2.13

L’utilisation de la calculatrice

La calculatrice peut être utilisée dans ce cas pour additionner les erreurs par
employé dans une nouvelle colonne. La somme des erreurs est inscrite dans
la colonne C9. Cela se fait de la manière suivante :

• Donnez un nom à la nouvelle colonne, C9. Dans ce cas : « Total


Mistakes ».
• Allez dans le menu Calc et sélectionnez Calculatrice (calculator).
• Indiquez que les résultats du calcul doivent être enregistrés dans la
colonne « Total Mistakes » (sélectionnez C9 Total Mistakes et cliquez
sur select).
• Indiquez l'expression dans « Expression » en sélectionnant les colonnes
en question et avec l'aide de la calculatrice. Il n'est pas nécessaire
d'utiliser = dans l'expression. Cliquez sur « OK ».

365
Figure A2.14

Le résultat est affiché dans la colonne C9. Voir la feuille de calcul ci-dessous.
Figure A2.15

366
Résumé graphique et histogramme
Pour obtenir un aperçu rapide des données, on utilise le résumé graphique
(graphical summary) via Stat → Basic Starsrcs → Graphical Summary. Dans
notre cas, nous le faisons pour le nombre total de demandes par employé
par jour.
Figure A2.16

Le résultat est le suivant (voir figure A2.17) :

Figure A2.17 Summary Report for total requests


Anderson-Darling Normality Test
A-Squared 0,41
P-Value 0,335
Mean 332,18
StDev 61,94
Variance 3836,68
Skewness 0,222922
Kurtosis -0,366636
N 124
Minimum 200,00
1st Quartile 290,00
Median 330,00
3rd Quartile 370,00
Maximum 480,00
95% Confidence Interval for Mean
240 300 360 420 480
321,17 343,19
95% Confidence Interval for Median
320,00 343,69
95% Confidence Interval for StDev
55,07 70,78

95% Confidence Intervals

Mean

Median

320 325 330 335 340 345

Worksheet: BANKING PRIVATE LOAN FORM.MTW

367
Nous pouvons en faire de même pour le nombre d'erreurs (utilisez Ctrl-E) :
Figure A2.18
Summary Report for Total Mistakes
Anderson-Darling Normality Test
A-Squared 5,16
P-Value <0,005
Mean 14,677
StDev 4,964
Variance 24,643
Skewness -0,578789
Kurtosis -0,994459
N 124
Minimum 5,000
1st Quartile 9,250
Median 16,000
3rd Quartile 18,000
Maximum 23,000
95% Confidence Interval for Mean
6 9 12 15 18 21
13,795 15,560
95% Confidence Interval for Median
15,000 17,000
95% Confidence Interval for StDev
4,414 5,673

95% Confidence Intervals

Mean

Median

14,0 14,5 15,0 15,5 16,0 16,5 17,0

Worksheet: BANKING PRIVATE LOAN FORM.MTW

Lors de l'interprétation des histogrammes, il faut faire attention au nombre


de points de données qui est utilisé pour l'histogramme. Pour être fiable, il
devrait y en avoir au moins 30, mais le plus sera le mieux.
Figure A2.19

Résumé graphique par variable


Nous venons de résumer toutes les données dans le résumé graphique.
Dans de nombreux cas, vous souhaitez analyser les données par variable (ou
vous souhaitez diviser Y en X). Dans notre cas, vous voudrez peut-être
connaître la répartition des résultats par employé. C'est possible de la
manière suivante :

368
Stat -> Basic Statistics -> Graphical Summary. Complétez le champ « By
Variable » avec la colonne que vous voulez utiliser comme facteur de
stratification. Dans ce cas, Person (personne). Comme vous pouvez le voir, il
n'est pas possible de sélectionner les colonnes de texte lors du remplissage
de Y (par exemple, le nombre d'erreurs ou le nombre de formulaires). En ce
qui concerne les X, il est possible d'utiliser des données discrètes (comme du
texte), par exemple parce qu'une subdivision est faite en un nombre limité
de groupes.
Figure A2.20

Cela donne le résultat tel


qu'illustré ci-dessous dans la
figure A2.21. Vous devez pour
cela placer au bon endroit et
manuellement les 4 résumés
obtenus, que Minitab place l'un
à la suite de l'autre :

369
Figure A2.21
Le « Lay-out tool » permet d'illustrer les quatre résumés graphiques obtenus
par Minitab dans un ensemble, par exemple s'ils doivent être traités dans un
rapport. Pour ce faire, vous devez procéder comme suit :
Editor > Layout Tool >, y sélectionner les 4 graphiques, puis avec la flèche
vers la droite « reprendre », Minitab en fait ce qui suit :
Figure A2.22

Statistiques descriptives

En utilisant la fonction Display Descriptive Statistics, il est possible d'obtenir


plus de paramètres statistiques non graphiques à partir d'un ensemble de
données. Cela passe par Stat -> Basic Statistics -> Display Descriptive
Statistics. Sélectionnez la colonne « Total Mistakes » et cliquez sur
« Statistiques ». Vous pouvez choisir les éléments que vous souhaitez
afficher.

370
Figure A2.23

Le résultat est indiqué dans la fenêtre de session :

Par ailleurs, il est aussi possible d'y exécuter les statistiques descriptives par
variable. Dans ce cas, le champ « by variable » doit être complété, par
exemple en y inscrivant « person ». Vous obtenez alors les statistiques
descriptives par personne, donc par exemple le nombre moyen d'erreurs
par personne au lieu de toutes les personnes ensemble.

371
Analyse de capacité
Une étape importante dans le projet Lean Six Sigma est de déterminer la
performance du processus ou du Y projet. L'analyse de la capacité est un
bon outil pour y parvenir. La Lower Specification Limit (LSL) et l'Upper
Specification Limit (USL) peuvent être reprises dans cette analyse. Minitab
traite le processus comme une distribution normale et indique dans
combien de cas (en parties par million), le processus produit en dehors des
spécifications.

Pour réaliser une bonne analyse de la capacité, nous devons d'abord créer
une colonne avec le pourcentage d'erreurs (« percent mistakes » dans la
colonne 10). Nous avons pour cela besoin de la calculatrice.
Figure A2.24

Ensuite, nous pouvons réaliser une analyse de la capacité sur le processus


par sous-groupe « personne » :
Allez à : Stat → Quality Tools → Capability Analysis → Normal
Choisissez dans la « single column » : Percent Mistakes et indiquez dans les
sous-groupes : « Person », car les mesures par personne vont ensemble. Si
ce n'est pas le cas (par exemple en cas de mesures indépendantes sans sous-
groupe), complétez « 1 ». Fixez la Lower Spec à 0% (comme « boundary »
parce que vous ne pouvez pas passer sous 0%) et l'Upper Spec à 8%. Ensuite,
372
sous « Options », vous pouvez compléter « Benchmark Z’s » ; dans ce cas,
vous aurez aussi les valeurs Z (ou les « sigma levels ») de votre processus.

Figure A2.25

Cela donne le résultat suivant:

Figure A2.26

Process Capability Report for Percent Mistakes

LB USL
Process Data Overall
LB 0 Within
Target *
USL 8 Overall Capability
Sample Mean 4,55809 Z.Bench 1,99
Sample N 124 Z.LB *
StDev(Overall) 1,72955 Z.USL 1,99
StDev(Within) 1,0168 Ppk 0,66
Cpm *
Potential (Within) Capability
Z.Bench 3,39
Z.LB *
Z.USL 3,39
Cpk 1,13

0,0 1,5 3,0 4,5 6,0 7,5 9,0

Performance
Observed Expected Overall Expected Within
PPM < LB 0,00 * *
PPM > USL 16129,03 23292,34 355,83
PPM Total 16129,03 23292,34 355,83

373
La performance globale indique dans quelle mesure le processus produit
conformément aux spécifications. La « Within Performance » est la
performance « à court terme » ou dans ce cas la performance « dans le
sous-groupe », qui est obtenue en calculant la variation dans le sous-groupe
(personne).

La prévision (Performance : « Expected Overall ») est que dans 2,3% des cas,
le processus global (c'est-à-dire à long terme) tombera en dehors de la
spécification, car le PPM Expected Overall est de 23292. La valeur + ;
(potentiel, court terme, ou dedans) de 1,13 indique que le processus à court
terme peut assurer des performances à un niveau Z acceptable de 3,39.
L'Overall capability de Z=1,99 n'est pas assez bonne (à un benchmark de Z=3
ou Cp=1).

Boîtes à moustaches
Les boîtes à moustaches sont basées sur la médiane et les quartiles. Une
boîte à moustaches fournit rapidement un aperçu lorsque l’on compare la
performance des groupes ou des facteurs de stratification. Dans le cas des
demandes de prêts, nous comparons les performances de différents
employés.

Allez à : Graph -> Boxplots -> One Y with groups

374 Figure A2.27


Choisissez ensuite « Total Mistakes » comme Y (donc complétez comme
« Graph variable ») et sélectionnez « Person » comme « Categorical
variables for grouping ».

Figure A2.28

Cela donne le résultat suivant (l'explication est ajoutée manuellement) :

Figure A2.29 Boxplot of Total Mistakes


25

20
Maximum
Total Mistakes

Q3
15 IQ Q2 =Médiane
R Q1
10

Minimum
5

AB-Am 1 AB-Am 2 AB-Am 3 AB-Am 4


Person
Worksheet: BANKING PRIVATE LOAN FORM.MTW

375
Les queues (« whiskers ») des boîtes à moustaches vont du minimum
jusqu’au premier quartile (Q1) et du 3e quartile (Q3) jusqu’au maximum. La
boîte elle-même (le carré) est la zone située entre le premier et le troisième
quartile (Q1 et Q3). Les valeurs aberrantes au-dessus du maximum ou en
dessous du minimum sont indiquées en tant qu’astérisque séparé. Les
valeurs aberrantes sont définies (par Minitab) comme des points qui sont à
plus de 1,5 fois la distance interquartile (IQR) en dessous de Q1 ou au-
dessus de Q3. Les éventuelles valeurs aberrantes sont indiquées par un
astérisque si elles sont présentes.
Graphique de points (Dotplot)
Les Dotplots donnent rapidement un aperçu de tous les points de données,
éventuellement répartis en groupes. Dans le graphique présenté ci-dessous,
cela a été fait pour les quatre employés dans notre cas. La sélection du Y et
des groupes est conforme aux boîtes à moustaches et fonctionne pour de
nombreux graphiques. Dans ces cas, les dotplots sont équivalents à des
histogrammes avec une taille de la classe de 1.
Allez à : Graph -> Dotplots -> One Y with groups
Figure A2.30

Dotplot of Total Mistakes

AB-Am 1
Person

AB-Am 2

AB-Am 3

AB-Am 4
6 9 12 15 18 21
Total Mistakes

376
Graphique de séries chronologiques
Le graphique de série chronologique est utilisé pour analyser les tendances
dans le temps.
ATTENTION: Triez d'abord bien toutes les colonnes sur la base de la colonne
« Date » afin que les plus anciennes données figurent en haut (avec Data >
Sort)
Figure A2.31

Allez ensuite à : Graph -> Time series plot -> Simple


Figure A2.32

377
Figure A2.33

Time Series Plot of Total Requests


500

450

400
Total Requests

350

300

250

200

1 12 24 36 48 60 72 84 96 108 120
Index

Vous obtenez ce graphique en optant pour « total requests » dans


« series ». Sur l'axe X, le graphique indique alors le numéro de ligne de
données. Dans ce cas, la date correspondante serait plus intéressante. Pour
afficher la date :

Retournez à la fenêtre précédente via Ctrl-E et sélectionnez « Time/Scale »


.
Figure A2.34

378
Figure A2.35

Sélectionnez « Stamp » et choisissez la colonne de date. La date est


maintenant indiquée sur l’axe X :

Figure A2.36

Time Series Plot of Total Requests


500

450

400
Total Requests

350

300

250

200

1-3 3-3 6-3 9-3 12-3 15-3 18-3 21-3 24-3 27-3 30-3
date EUR

379
Pareto et empilement (stacking)

Le diagramme de Pareto est souvent utilisé pour obtenir un aperçu rapide


des causes (X) qui contribuent le plus à la variation de Y. Pour y parvenir,
toutes les erreurs (defects) doivent être dans une seule colonne. Dans Excel,
vous pouvez d'ailleurs le faire en créant un tableau croisé dynamique dans
lequel Excel additionne les nombres des différents types d'erreurs. Dans
notre cas, chaque type d'erreur est affiché dans une colonne séparée dans la
feuille de calcul Minitab. Pour pouvoir créer un Pareto, les colonnes devront
être empilées. Cela se fait de la manière suivante :
Allez dans : Data → Stack → Columns

Choisissez une nouvelle feuille de calcul et donnez-lui un nom (dans ce cas


« defects to Pareto »).
Cochez « subscripts » afin que les en-têtes des colonnes originales soient
repris dans la colonne à côté des nombres. Nous en avons besoin pour le
Pareto.

Figure A2.37

Cela donne le résultat suivant avec deux colonnes empilées, auxquelles vous
devez donner un nom logique : (par exemple « Defects » et « Count »).

380
Figure A2.38

Pour faire le Pareto, allez dans : Stat -> Quality Tools -> Pareto Chart

Figure A2.39

381
Pareto Chart of Defects
2000

100

1500 80

Percent
Count

60
1000

40

500
20

0 0
Defects Sent to wrong address Late Wrong Form Used Not Complete
Count 834 550 337 99
Percent 45,8 30,2 18,5 5,4
Cum % 45,8 76,0 94,6 100,0

Figure A2.40
L'envoi à la mauvaise adresse est le premier X sur lequel concentrer nos
efforts d'amélioration.

A2.5 Sauvegarder le projet


Enfin, nous voulons sauver les analyses. Enregistrez-les comme un projet
(PAS comme une feuille de calcul) via :

File → Save Project As (donnez-lui un nom approprié).

A2.6 Utilisation de « l'Assistant » dans Minitab 17


Une grande partie des missions réalisées dans ce chapitre (à partir de
l'utilisation de la calculatrice, et faites d'abord l'opération de « tri ») peuvent
aussi être réalisées à partir de Minitab 17 via « l'Assistant » pour la
« Graphical Analysis ». En général, c'est plus simple. Nous donnons ci-
dessous quelques exemples d'utilisation de cet assistant avec l'ensemble de
données précédemment utilisé. Vous pourriez utiliser l'assistant pour faire

382
le « travail à domicile Minitab » (notamment Boxplot, Graphical Summary,
Pareto). Ci-dessous le Graphical Summary de « Total Mistakes » et « Total
Mistakes » par « Person » via « l'Assistant ».

Figure A2.41

(Si dans la colonne X : « Person » est complété, cela fait apparaître la


2e figure).

383
Figure A2.44 Graphical Summary of Total Mist
Summary Report

Distribution of Data
Examine the center, shape, and variability.
Descriptive Statistics
N 124
Mean 14,677
StDev 4,9642
Minimum 5
5th percentile 6
25th percentile 9,25
Median 16
75th percentile 18
95th percentile 21
Maximum 23
4 8 12 16 20 24

95% Confidence Intervals


Mean (13,795; 15,560)
Median (15; 17)
StDev (4,4138; 5,6727)

Data in Worksheet Order Normality Test


Investigate any outliers (marked in red).
Decision Fail
24 P-value <0,005
Total Mist

16

0 20 40 60 80 100 120

Graphical Summary of Total Mist by Person


Figure A2.42 Summary Report

Distribution of Data Data in Worksheet Order


Compare center, shape, and variability. Investigate any outliers (marked in red).
AB-Am 1
AB-Am 1
24

16

8
AB-Am 2 AB-Am 2
24

16
Total Mist

8
AB-Am 3 AB-Am 3
24

16

8
AB-Am 4 AB-Am 4
24

16

8
6 9 12 15 18 21 0 10 20 30
Total Mist

Normality Test
Group N Mean 95% CI StDev 95% CI Min Median Max P Decision
AB-Am 1 31 7,1935 (6,7352; 7,6519) 1,2495 (0,9985; 1,6702) 5 7 11 <0,005 Fail
AB-Am 2 31 15,516 (14,449; 16,583) 2,9083 (2,3240; 3,8874) 8 16 21 0,301 Pass
AB-Am 3 31 17,774 (16,950; 18,598) 2,2466 (1,7953; 3,0030) 13 18 21 0,200 Pass
AB-Am 4 31 18,226 (17,452; 18,999) 2,1089 (1,6852; 2,8189) 14 18 23 0,395 Pass

Ensuite, la boîte à moustaches du « % mistakes » par « Person ».

384
Figure A2.43
Boxplot of %mistakes by Person
Summary Report

Distribution of Data by Group


Compare the center and the variability across samples. Identify any outliers.
10

8
%mistakes

AB-Am 1 AB-Am 2 AB-Am 3 AB-Am 4


Person

Statistics AB-Am 1 AB-Am 2 AB-Am 3 AB-Am 4


N 31 31 31 31
Mean 2,2354 4,6552 5,6341 5,7076
StDev 0,58080 1,1144 1,1648 1,0874
Minimum 1,25 2,2857 3,4884 4,1026
Maximum 3,75 6,9231 8,4 9

Et en dessous le « Time Series Plot » de « Total Requests ».

Time Series Plot of total requ


Figure A2.45 Summary Report

Data in Time Order


Look for patterns and trends.
Descriptive Statistics
500
N 124
Mean 332,18
Standard deviation 61,941
Minimum 200
450
Maximum 480

400
total requ

350
With Smoother
Shows general trend of data

300

250

200

1 17 34 51 68 85 102 119
Index

385
Enfin, après le stacking, le Pareto des défauts.

Figure A2.46

Pareto Chart of type


Figure A2.47 Summary Report

Defects Ordered by Frequency of Occurrence


Focus on the defects with the greatest impact on your process.

2000

1500
number

1000

500

0
type Sent to wr Late Wrong Form Not Comple
Count 834 550 337 99
Percent 45,8 30,2 18,5 5,4
Cum % 45,8 76,0 94,6 100,0

386
Annexe 3 : TESTER LES HYPOTHESES

A3.1 Introduction
Dans cette annexe, nous discutons des tests statistiques et des intervalles de
confiance associés, qui sont déterminés pour être en mesure de faire un
énoncé à propos d'une population sur la base d'un échantillon. Dans les
statistiques qui sont traitées, nous raisonnons toutefois autrement. Tout
d'abord, un énoncé est établi et il est testé par rapport aux données d'un
échantillon pour voir s'il est rejeté ou conforté. Cet énoncé est appelé
hypothèse. La question centrale à cet égard est de savoir comment nous
pouvons être sûr qu'une hypothèse est acceptée ou rejetée. Cela est lié à la
fiabilité du test. Dans les paragraphes suivants, nous discutons de la création
et du test des hypothèses et de la fiabilité de ces tests.

A3.2 Intervalles de confiance


Dans l'Annexe précédente « Statistiques de base », nous avons discuté de la
moyenne et de l’écart type, qui sont calculés sur la base d'un échantillon.
Cependant, sur la base de l'échantillon, nous pouvons aussi dire quelque
chose (avec un certain degré de certitude) de la population. Dans l'Annexe 2
(Minitab), nous avons examiné sur la base du cas des prêts le résumé
graphique du nombre de demandes. Cela a débouché sur le graphique à la
figure A3.0.

387
Figure A3.0

Summary Report for total requests


Anderson-Darling Normality Test
A-Squared 0,41
P-Value 0,335
Mean 332,18
StDev 61,94
Variance 3836,68
Skewness 0,222922
Kurtosis -0,366636
N 124
Minimum 200,00
1st Quartile 290,00
Median 330,00
3rd Quartile 370,00
Maximum 480,00
95% Confidence Interval for Mean
240 300 360 420 480
321,17 343,19
95% Confidence Interval for Median
320,00 343,69
95% Confidence Interval for StDev
55,07 70,78

95% Confidence Intervals

Mean

Median

320 325 330 335 340 345

Worksheet: BANKING PRIVATE LOAN FORM.MTW

Nous partons du principe que le cas des demandes de prêt porte sur un
échantillon. Dans l'encadré en bas à droite, un intervalle de confiance de
95% est mentionné pour la moyenne, la médiane et l'écart-type. L'intervalle
de confiance indique le degré de certitude avec lequel vous pouvez faire une
déclaration sur la valeur réelle et attendue de la moyenne, de la médiane et
de l’écart-type de la population, sur la base de l'échantillon donné. Dans ce
cas, il est possible d'affirmer avec une certitude de 95% que la valeur réelle
de la moyenne de la population pour le nombre total de demandes par jour
se situe entre 321,17 et 343,19.

La fiabilité de 95% signifie également ce qui suit :

Si nous traitons 100 fois un échantillon avec plusieurs points de données, et


que nous faisons un énoncé sur la moyenne de la population, dans 95 cas
sur 100, l'intervalle de confiance contiendra la moyenne réelle de la
population totale, et dans 5 cas sur 100, la valeur réelle de la moyenne de la
population sera à l'extérieur de l'intervalle de confiance que nous avons
calculé.

388
Nous avons donc 95% de chances que l'énoncé que nous avons fait
corresponde à la réalité et 5% que ça ne soit pas le cas. Ce 5% est également
désigné sous le nom Alpha ou risque α.

Le degré de certitude que l’on veut sur l'énoncé dépend des conséquences
de celui-ci. Quelques exemples :

• Dans l'industrie automobile, les intervalles de confiance à 95% sont


utilisés pour les données.
• Dans l'industrie médicale, les intervalles de confiance à 99,9% sont
utilisés.
• Si vous disposez de données recueillies par des personnes dans un
environnement administratif, avec peut-être beaucoup de bruit, on se
contente parfois de 90% de fiabilité et d'intervalles de confiance à 90%.

D'une manière générale, les intervalles de confiance à 95% sont utilisés, en


d'autres termes, avec 5% de chances de se tromper.

En résumé :

Les intervalles de confiance sont utilisés pour calculer les moyennes et les
écarts-types à partir d'échantillons et les traduire en une fourchette dans
laquelle la moyenne µ et l'écart-type σ pour la population totale doivent
présenter un certain degré de certitude.

Calculer l'intervalle de confiance

Lors de la présentation de la répartition normale, nous avons constaté que


95% des points de données (arrondi) se situent entre -2 fois l’écart-type et
+2 fois l'écart-type de la moyenne (d'ailleurs, la valeur qui n'est pas arrondie
à + et -2 écarts-types est de 95,45%).

L'intervalle de confiance d’un élément (par exemple µ, l'écart-type) peut,


d'une façon générale, être calculé comme suit :

389
Intervalle de confiance = valeur de l’élément dans l'échantillon +/- constante
x erreur standard.

On entend par « élément » : la moyenne/variance/médiane, etc.

La constante est basée sur une distribution statistique qui dépend de


l’élément pour lequel l'intervalle de confiance est déterminé :

• Pour la traduction du µ moyen de l'échantillon vers celui de la


population, c'est la distribution t.
• Pour la traduction de l'écart-type de l'échantillon vers celui de la
population, c’est une distribution q  (= distribution Chi-carré).

La distribution t et la distribution chi-carré q  sont liées au nombre de points


de données qui est utilisé pour un échantillon, la taille de l'échantillon et le
risque Alpha (les 5% de chances que nous acceptions de faire une erreur à
95% d'intervalle de confiance).
A
L'erreur standard pour la définition de la moyenne est définie comme : ,
√G
qui est calculé en déterminant d'abord l'écart-type (de l'échantillon) et en le
divisant par la racine carrée du nombre d'observations (de l'échantillon).

Dans la formule ci-dessous, les limites de cet intervalle de confiance sont


développées. Dans ce cas pour l'intervalle de fiabilité de la moyenne :
A A
s̅ - uc,G:O ≤ µ ≤ s̅ + uc,G:O
√G √G

s = écart-type de l’échantillon

n = taille d’échantillon
n-1 = nombre de degrés de liberté (par définition)

s̅ = moyenne de l’échantillon

t = valeur issue du tableau t (Annexe 6)

390
α = risque alpha (chances de tirer une conclusion erronée, habituellement
5%)
A
= erreur standard (par définition)
√G

La valeur t vient de la distribution t, qui est une distribution en forme de


cloche, comme la distribution normale, mais plus aplatie, en fonction de la
taille de l'échantillon. Plus petit est l'échantillon, plus plate et plus large sera
la distribution. Lorsque l'échantillon est très grand, la distribution t
s'approche de la distribution normale. Les valeurs sont indiquées à l’Annexe
6. La Figure A3.1 donne un exemple :

Figure A3.1

Taille d’échantillon

La taille de l'intervalle de confiance pour une fiabilité donnée (par exemple


95%, α = 0,05) dépend de la distribution qui est utilisée pour la constante
(comme la distribution t) et l'erreur standard. L’erreur standard est
inversement proportionnelle à la racine carrée du nombre de points de
données. Cela signifie que, plus le nombre de points de données mesurés
est grand, plus l'erreur standard est faible, et de même pour l'intervalle de
confiance. Si l'intervalle de confiance est faible, vous êtes davantage certain
de la valeur moyenne réelle (ou de l'écart-type) de la population qu'avec un
intervalle de confiance plus large.

391
Figure A3.2

On retrouve en face du nombre de points de données l’écart-type « s ». Plus


il y a de variation, plus il est grand. Cela signifie que l'intervalle de confiance
est plus large quand il y a plus de variation. Ainsi, les variables qui
déterminent l'intervalle de confiance sont s, n et α. L'écart-type est un
résultat de l'échantillon. Lorsque nous voulons réduire l'intervalle de
confiance pour nous prononcer de manière plus précise sur la population
totale, nous devons recueillir plus de points de données ou accepter un
niveau de fiabilité moindre, par exemple 90% de certitude (donc α = 0,10, ce
qui signifie que nous acceptons d’avoir 10% de chances de tirer une
conclusion erronée).

A3.3 Tester les hypothèses


Tester les hypothèses est un élément important pour tirer des conclusions
statistiques. Dans les projets d'amélioration Lean Six Sigma, tester les
hypothèses joue un rôle important. Dans la recherche des X qui peuvent
être la cause de la variation, nous voulons être capables de tirer des
conclusions statistiquement significatives sur l'influence d'une valeur de X
ou de l'autre valeur de X et son influence sur Y. Lorsque nous sélectionnons
les X sur lesquels travailler afin de trouver une solution à Y, ces X doivent
véritablement contribuer, et après la mise en œuvre de l'amélioration pour

392
ces X, ils doivent produire une amélioration significative de Y. Quelques
exemples :

Une ceinture noire vient de mener un projet pilote pour un nouveau


processus impliquant des contrats sur appel, et il veut savoir si le délai est
statistiquement sensiblement plus court par rapport à l'ancien processus.

Le responsable d'un service de traitement des commandes veut comparer


deux procédures d’introduction de commandes afin de déterminer si l'une
d’elles est plus rapide que l'autre.

Un hôpital dispose de deux établissements qui utilisent tous les deux des
scans pour prendre des images destinées à poser des diagnostics. L'hôpital
veut savoir s'il existe des différences en ce qui concerne la qualité des
services entre ces deux établissements, en particulier par rapport au nombre
de scans perdus, qui doivent être refaits, et en ce qui concerne le temps
d'attente moyen pour ces IRM et ces radios.

Dans les trois cas, les tests d'hypothèses peuvent fournir une réponse.

Tester des hypothèses commence avec l'hypothèse nulle. L'hypothèse nulle


est une hypothèse qui est testée statistiquement pour déterminer si elle est
vraie ou non. Nous supposons toujours que l'hypothèse nulle est vraie,
jusqu'à preuve du contraire. L'hypothèse nulle est toujours basée sur un
statu quo : il n'y a pas de différence. La notation qui est utilisée pour
l'hypothèse nulle est HK . Exemples d'hypothèses nulles (HK : µO = µ ) :

HK Le nouveau processus de contrats sur appel donne le même résultat que


l'ancien processus.

HK Les deux procédures de saisie des commandes donnent le même


résultat.

HK La qualité des deux établissements de l'hôpital concernant les IRM est la


même.

393
L'hypothèse alternative suppose qu'il existe des différences. L'hypothèse
alternative est vraie quand il y a suffisamment de preuves pour rejeter
l'hypothèse nulle. La notation utilisée pour l'hypothèse alternative est HN .

HN : µO ≠ µ

L'illustration suivante reflète ce que les tests d'hypothèses peuvent


concerner : changements dans les moyennes et répartition.

Figure A3.3

Plan d’approche pour les tests d’hypothèses

Nous allons discuter de l'exécution des tests d’hypothèses sur la base d'un
plan d'approche :

1. Déterminez ce que vous voulez étudier (par exemple, votre Y).


2. Déterminez les hypothèses nulle et alternative.
3. Déterminez l'ordre de grandeur acceptable des risques α et/ou β
4. Collectez les données et effectuez le test.
394
5. Comparez le résultat du test (P) aux valeurs critiques.
6. Rejetez ou acceptez l'hypothèse nulle.
7. Vérifiez la Puissance (Power) et la taille de l'échantillon (avec Minitab)
8. Prenez les actions appropriées.

Etape 1 Déterminez ce que vous voulez étudier

Dans la première étape, vous déterminez ce que vous voulez étudier.


Utilisez les définitions opérationnelles des paramètres que vous souhaitez
examiner (Y ou X) et indiquez s'il s'agit de la moyenne ou de la variation.

Etape 2. Déterminez les hypothèses nulle et alternative

L'hypothèse nulle sera toujours : « Il n'y a rien de mal » ou « Il n'y a pas de


différence » :

HK : µO = µ ou HK : σO = σ

L'hypothèse alternative concerne la forme : « Il y a quelque chose » ou « Il y


a une différence ».

HN : µO ≠ µ ou HN : σO ≠ σ

Etape 2 Déterminez l'ordre de grandeur acceptable des risques α et/ou β

Les risques α et β représentent les risques de prendre une mauvaise


décision. Cette décision porte sur l'hypothèse nulle HK et l'hypothèse
alternative HN , et traite de la conclusion qui est tirée de l'échantillon par
rapport à la vérité (que nous ne connaissons pas, mais à propos de laquelle
nous nous prononçons sur la base de l'échantillon). Le schéma suivant
illustre les options que nous avons concernant la prise de décision basée sur
un échantillon et la vérité :

395
Figure A3.4

Il existe deux types d'erreurs que vous pouvez faire :

Type-I : HK Rejeter et conclure qu'il existe une différence, alors qu'il n'y
en a pas.
Type-II : HK Accepter et conclure qu'il n’y a pas de différence, alors qu'il
y en a une.

La valeur habituelle pour α = 0,05 (5%) et pour β = 0,10 à 0,20 (10% - 20%).
Le risque α est appelé l'erreur de 1er type, et le risque β l'erreur de 2e type.
L'erreur de 1er type est également connue comme le risque du fabricant.
Une action est prise alors que tout va bien (par exemple dans le cas d'un
rappel proactif de produits). L'erreur de 2e type est appelée le risque du
consommateur. Aucune action n'est prise alors qu'elle était nécessaire.

396
La probabilité qu'un test démontre une différence quand il y en a réellement
une est appelée la puissance du test (ou power). L'hypothèse nulle est
rejetée à raison. La puissance d'un test est liée au risque β et peut être
calculée comme suit : Puissance = 1 – β.

Dans la figure A3.5, l'acceptation ou le rejet de HK est illustré dans une


distribution normale.

Figure A3.5

Etape 4. Collectez les données et effectuez le test

Les différents types de tests sont abordés au chapitre 7 de cet ouvrage,


tandis que la collecte de données est examinée au chapitre 3.

Etape 5 Comparez le résultat du test aux valeurs critiques

En ce qui concerne la distribution normale indiquée plus tôt, quand il n'y a


rien de particulier, la valeur trouvée devrait être dans les 95%. Cela
correspond à peu près aux deux limites de sigma, mais pas exactement (les 2
limites de sigma sont à 95,45%). Pour obtenir 95%, nous devons donc avoir
un peu moins de 2 sigma. Cela correspond à 1,96 sigma, pour être précis.
Nous pouvons dire que 95% sont définis par les limites de 1,96 sigma. Ce

397
sont les limites dans lesquelles l'hypothèse nulle est acceptée. Au-delà se
trouvent les 5% (notre α). Le test statistique que nous réalisons (dans
Minitab ou non) donnera toujours une valeur que nous devons comparer à
cette limite critique de 5% (ou α).

Le résultat de ce test statistique porte un nom : la valeur P. Nous allons donc


le comparer avec α (en général 0,05). Si notre valeur P se trouve dans les
extrêmes (P < α), c'est inattendu et nous concluons que quelque chose ne va
pas, ce qui signifie que nous rejetons l'hypothèse nulle. Si le résultat du test
donne une valeur P qui n'est pas dans la zone critique, cela signifie que P > α
et nous acceptons l'hypothèse nulle.

La valeur P peut donc être considérée comme la vraisemblance (plausibilité)


de l'hypothèse nulle. Si la plausibilité est inférieure à 0,05, l'hypothèse nulle
doit être rejetée en faveur de l'hypothèse alternative.

Attention : si α est fixé à 0,10 (ce qui signifie que nous acceptons une
probabilité plus élevée de nous tromper), cette valeur de 0,10 est utilisée
comme limite pour rejeter ou accepter HK .

Dans chaque test d'hypothèse dans Minitab, la valeur P est le résultat le plus
important. Plus la valeur P est faible, plus il est clair qu'il faut rejeter HK .
Dans la plupart des cas, la valeur limite est de 0,05. Si P < 0,05, HK est rejetée
et HN est considérée comme valide. La règle générale est la suivante :

If P is low, vw must go!

En ce qui concerne les valeurs critiques, deux situations sont possibles :

1. Tests bidirectionnels
2. Tests unidirectionnels

Nous abordons les deux pour clarifier la différence :


1. Tests bidirectionnels

398
Il est question de tests bidirectionnels si l'hypothèse s'applique à deux
populations qui sont considérées comme égales dans l'hypothèse nulle. Par
exemple :

HK Les Belges (1) ont la même taille que les Hollandais (2), soit HK : µO = µ
HN Les Belges (1) et les Hollandais (2) n’ont pas la même taille, soit HN : µO ≠
µ
HK est rejetée si les Belges sont significativement plus grands que les
Hollandais ou si les Hollandais sont significativement plus grands que les
Belges.
Dans le cas de tests bidirectionnels avec un intervalle de confiance de 95%,
5% (0,05) se situent en dehors de la valeur critique, dont 2,5% se trouvent
dans la partie inférieure et 2,5% dans la partie supérieure (0,025 de part et
d'autre).

Figure A3.7

2. Tests unidirectionnels

Il est question de tests unidirectionnels si l'hypothèse porte sur des


déclarations comme : A est plus grand que B. Par exemple :

Figure A3.8

399
HK Les Belges (1) ne sont pas plus grands que les Hollandais (2), ou HK :
µO ≤ µ

HN Les Belges (1) sont plus grands que les Hollandais (2), ou HN : µO > µ

HK est vrai quand les Belges sont plus petits que les Hollandais ou s'il n'y a
pas de différence de taille entre les Belges et les Hollandais. Si nous voulons
nous prononcer avec un intervalle de confiance de 95%, cela signifie que la
valeur critique est située sur un seul côté de la courbe. Voir la Figure A3.8.

Dans les deux tests, on vérifie si la valeur P qui est le résultat du test est
inférieure à la valeur critique de 0,05, mais avec le test unidirectionnel,
l'ensemble de la zone critique (où l'hypothèse nulle est rejetée) se trouve
d’un seul côté (c.-à-d. 5% de la surface de la courbe d'un côté), tandis que
dans le cas du test bidirectionnel, il est de 2,5% des deux côtés. Cela signifie
qu’une valeur doit être plus extrême (s'écarter du centre) dans le cas d'un
test bidirectionnel, pour entrer dans la zone critique par rapport à un test
unidirectionnel. Cela signifie également qu'un test unidirectionnel peut
donner une différence significative plus rapidement. Inversement, si un test
bidirectionnel fournit déjà un résultat significatif (P < 0,05), on obtiendra
également une différence significative avec ce même test, mais
unidirectionnel. Par conséquent, si un test bidirectionnel donne un résultat
significatif, aucun test unidirectionnel ne doit être effectué.

Etape 6 Accepter ou rejeter l'hypothèse nulle

Comme indiqué à l'étape précédente, la valeur P de l'échantillon est évaluée


par rapport à la valeur critique. Si la valeur P se trouve en dessous de la
valeur critique, l'hypothèse nulle est rejetée ; si elle est supérieure à la
valeur critique, elle est acceptée.

9. Etape 7 Vérifiez la Puissance (Power) et la taille de l'échantillon (avec


Minitab)

400
Nous sommes souvent à la recherche d'une relation significative entre X et
Y. La puissance d'un test augmente quand il y a une relation plus forte entre
X et Y, et quand on collecte plus de données. Une exigence commune est
que la puissance devrait être au moins de 0,80 (donc β < 0.20).

Pour déterminer la taille de l'échantillon, vous avez besoin des paramètres


suivants :

• Le niveau α (habituellement 0,05).


• La puissance (1-β = 0,8 ; β = 0,2).
• La différence que vous voulez détecter (par exemple une réduction de
20% du délai de livraison après la mise en œuvre d'une nouvelle
procédure. Cela signifie qu’un réduction plus petit n'est pas considéré
comme une différence).
• Une estimation de l'écart-type, par exemple sur la base de mesures
antérieures.

Minitab vérifie via l'Assistant le résultat du test statistique et si la Puissance


(Power) est suffisante. Si vous remplissez les champs optionnels pour la
différénce que vous voulez démonter, Minitab vous calculera si la Puissance
(Power) est suffisamment grande pour retrouver effectivement cette
différence. Si ce n'est pas le cas, il est conseillé de collecter plus de données.
Vous pouvez également calculer à l'avance la taille de l'échantillon via: Stat
→ Power and Sample size. Cela dépend du test que vous allez réaliser. Cette
question est abordée dans le chapitre 7.

Ci-dessous, les relations entre les différents paramètres :

401
Figure A3.6

Etape 8 Prendre les actions appropriées

Les actions dépendent de l'objectif du test. Si une amélioration dans un


projet pilote a fait une différence significative, et que cela a été démontré
avec un test d'hypothèse, un déploiement à grande échelle de l'amélioration
sera l'action qui en découle. Si un certain X a une influence négative
significative sur la variation de Y, l'action appropriée sera de trouver une
solution pour réduire l'influence de X sur la variation.

402
Annexe 4: REPONSES AUX EXERCICES
Exercices du chapitre 0.12

Rendement de débit cumulé (Rolled Throughput Yield - RTY)


Réponse : 10% de taux de chute par étape (90% * 90% * 90% * 90% * 90% = 59% corrects)

Défauts :
Réponse : 0,33 ou 33,3% (1 défaut divisé par 3 opportunités)

DMAIC
Réponse:
Définir, Mesurer, Analyser, Améliorer (Improve), Contrôler (DMAIC)
1. Déterminer le projet et sa portée ; 2. Définir le défaut ; 3. Déterminer le Y et analyser le
système de mesure ; 4. Déterminer la performance de base ; 5. Préciser l’objectif d'amélioration
compte tenu de la performance de base ; 6. Identifier les causes possibles de variation ;
7. Déterminer les causes premières ; 8. Déterminer la solution optimale ; 9. Tester la solution ;
10. Garantir et analyser le système de mesure ; 11. Mettre en œuvre et démontrer
l'amélioration ; 12. Documenter le projet et transférer la responsabilité.

Qualité :
Réponse : a : Efficacité et Efficience
b : L'efficacité consiste à faire les bonnes choses (nos activités correspondent-elles aux besoins
du client ?). L’efficience consiste à bien faire les choses (consacrons-nous à nos activités un
minimum de ressources ?).

Origine du Six Sigma


Réponse : a: « Sigma » est l'écart-type des valeurs mesurées du processus. Cela indique la
quantité de variation d'un processus.
b: Le nombre de sigmas entre la moyenne et la limite de spécification. Cela renseigne sur le
niveau de prédictibilité du processus, où un nombre élevé de sigmas entre la moyenne et la
limite de spécification prédéfinie indique que le processus fonctionne souvent bien.
c : L'origine de Six Sigma vient de chez Motorola, où un niveau six sigmas a été retenu comme
standard pour tous les processus.

Rôles Six Sigma :


Réponse :
a. Champion, Sponsor/Process Owner, Master Black Belt, Black Belt, Green Belt, Yellow Belt.
b. 1 Champion par division, 1 Sponsor par processus, 1 Black Belt par projet, 1 Master Black
Belt pour 20-50 Black Belts

403
Exercices du chapitre 1.4

Sélection de projet :
Réponse :
1. Identifier les éléments de l’organisation qui déterminent la valeur.
2. Identifier les chances et opportunités.
3. Examiner la liste des possibilités.
4. Champ et définition des projets.
5. Prioriser la liste des projets.

Voix …
Réponse:
a. Voix :
 Du client
 Du processus
 De l'entreprise
 Management
 Employé
b. La Voix du Client. Si le client pense que le produit ou le service n’est pas assez bon, il ne
sera plus acheté et il ne sera plus viable.

VOC :
Réponse:
1. Prix : le bon prix
2. Qualité : la bonne qualité
3. Temps : au bon moment (en général, aussi vite que possible)

Le modèle de Kano
Réponse:
Attrayant : b, h, j Souhaitable : a, g,
Indifférent : d, e, f Obligatoire : c, i

Exercices du chapitre 2.6


Revenus
Réponse:
Chiffre d'affaires supplémentaire annuel € 1.000.000
Dépenses supplémentaires annuelles (400.000) € 400.000 -
Impôts sur le bénéfice (20% de € 600.000) € 120.000 -
NOPAT annuel € 480.000
Donc EVA annuel de €480.000

Réduction des coûts du projet :


Réponse:
404
a. EBITDA (€ 450.000 * 60% * 50%) € 135.000 par mois
b. EVA: Recettes (€135.000*12 mois) € 1.620.000
AF: impôts (1.620.000*25%) € 405.000
NOPAT € 1.215.000
EVA € 1.215.000 par an

Augmentation du chiffre d’affaires du projet :


Réponse:
Recettes nettes (€10000*5*18%*12) € 108.000
AF: Impôts (€108000*25%) € 27.000
NOPAT / EVA (pas d'investissement) € 81.000

Réduction du capital de travail du projet :


Réponse:
a. €540.000*80%*50%) € 216.000
b. Recettes nettes : WACC*216.000 € 21.600 par an
Impôts et coûts na
EVA € 21.600

Investissement évité projet :


Réponse:
Plus faible investissement € 500.000
Recettes nettes (500k * 10% WACC) € 50.000
AF: Dépenses €0
AF: Impôts n.a.
EVA € 50.000

SIPOC
Fournisseur Input Processus Output Client
Employé Original Placez l'original sur la Copie Employé
vitre.
Photocopieuse
Mettez la machine en
Papier mode photocopie.

Appuyez sur Start.

Retirez l'original de la
vitre et la copie du tiroir
d'impression.

405
Exercices du chapitre 3.5

Taille d’échantillon
Que voulez-vous savoir sur la population ? Taille d’échantillon minimale
recommandée
Valeur moyenne d’une population 5
Ecart-type d’une population 25
Proportion défectueuse (P) dans une population 30
Fréquences de valeurs dans différentes catégories 50
(d’histogramme ou de diagramme de Pareto)
Relation entre les variables (comme dans un diagramme 25
de dispersion ou de corrélation)
Stabilité dans le temps 25

Pareto
Pareto Chart of cause for cancellation of surgery
140 100

120
80
100
occurences

Percent
80 60

60 40
40
20
20

0 0
l. y e d ds e
ai ad l ie ar
m bl
av re lab up be al ila
ai va
o m ot av cc ug
h re a
ro
n r o Fi t
y nt ct
o ra
y no an
er tie do X- te si
st
rg pa o N
o
as
su N o
no N

occurences 57 31 24 12 8 4 4
Percent 40,7 22,1 17,1 8,6 5,7 2,9 2,9
Cum % 40,7 62,9 80,0 88,6 94,3 97,1 100,0

Définition opérationnelle :
Réponse possible :
Standard : aucune forme de rouille n’est tolérée sur les produits qui sont prêts.

Procédure: inspection visuelle à la fin de la ligne de production. L'inspection est effectuée sous
une lumière vive (nombre minimum de lumens) par un évaluateur avec une bonne vue (20/20).

Décision: le produit est approuvé si, après inspection, on ne trouve pas de rouille.
Types de données
Binaire Continue
406
A, B, I D, H, K
Ordinale Nominale/catégorielle
E, G, L C, F, J

Reproductibilité, répétabilité & exactitude :


Réponse :
Au-dessus Reproductibilité +, Répétabilité -, exactitude +
En bas à gauche Reproductibilité -, Répétabilité +, Exactitude +/-
En bas à droite Reproductibilité +, Répétabilité +, Exactitude -

Exercices du chapitre 4.4


Spécification
Lower Spec Limit (LSL) et Upper Spec Limit (USL)

Capacité de processus
Dans le cas de données continues, la distribution normale peut être utilisée. Dans le cas de
données discrètes, on regarde le nombre de défauts, traduit en DPMO. Sur la base du DPMO, le
niveau de sigma peut être déterminé.

En traduisant la performance du processus en Cp, Cpk ou valeur Z, les processus peuvent être
comparés entre eux. Les résultats renseignent sur le niveau d'efficacité du processus.

Exercices du chapitre 5.4


Objectif d'amélioration
Généralement une des personnes suivantes :
 Champion
 Master Black Belt
 CFO/Contrôleur
 Process Owner/Sponsor
Exercices du chapitre 6.4
Graphiques
# Nom Fonction
A Boîte à Donne une image des modèles bruts dans la distribution des données
moustaches
B Multi-Vari Laisse entrevoir l'influence combinée de plusieurs X
C I-MR Affiche la variation dans l'output (Y) au fil du temps
D Pareto Affiche les défauts les plus fréquents (règle 80/20)
E Histogramme Donne une illustration graphique de la variation dans l'output (Y)

407
Exercices du chapitre 7.5
Distribution normale
a. Oui (P>0,05)
b. Avec un ensemble de données à distribution normale, on peut mieux se prononcer
sur la probabilité de l'output à prévoir, des tests statistiques plus puissants peuvent
être effectués.

Ecart-type
Entre 96 et 102 (plus ou moins 1 écart-type)

Type de données pour analyse


Test statistique Type de donnée Y Type de donnée X
Binary Fitted Line Plot Binaire Continue
Test t à 1 échantillon Continue Discrète
Test d’égalité des variances Continue Discrète
Régression multiple Continue Continue
ANOVA bidirectionnelle Continue Discrète
Tests de proportion et Chi Discrète Discrète

Chapitre 8.4
Méthode des 6 chapeaux

Exercices du chapitre 10.5


Anti-erreur (Mistake proofing)
Poka Yoke concerne la prévention des erreurs. Le processus est organisé de manière à le rendre
(presque) incapable de faire des erreurs. Il n’y a donc pas d’instructions ou de contrôles
nécessaires avec les actions Poka Yoke.

408
Exercices Annexe 1.6
Unités statistiques
Réponse:

Moyenne : 7,3 (7,297777778)

Médiane : 7,3 (7,315)

Mode : Il n'y a pas mode avec 2 décimales.

(avec 1 décimale, le mode vaut 7,3 (5 observations))

Histogramme

Ecart-type 0,36

Distribution normale P=0,282 (cela signifie que les données sont distribuées normalement)

409
410
Annexe 5: Charte du projet avec explication
1. AUTORISATION DU PROJET

411
2. DEFINITION DU PROJET

412
3. DESCRIPTION DU PROCESSUS

413
4. RESSOURCES

5. PARTIES PRENANTES DU PROCESSUS

414
6. PLANNING PROJET

7. RECETTES FINANCIERES

415
Annexe 6 : Tableau T
α/2
(n-1) 0,4 0,1 0,05 0,025 0,01 0,005 0,0025 0,001 0,0005
1 0,325 3,078 6,314 12,706 31,821 63,657 127,321 318,309 636,619
2 0,289 1,886 2,920 4,303 6,965 9,925 14,089 22,327 31,599
3 0,277 1,638 2,353 3,182 4,541 5,841 7,453 10,215 12,924
4 0,271 1,533 2,132 2,776 3,747 4,604 5,598 7,173 8,610
5 0,267 1,476 2,015 2,571 3,365 4,032 4,773 5,893 6,869
6 0,265 1,440 1,943 2,447 3,143 3,707 4,317 5,208 5,959
7 0,263 1,415 1,895 2,365 2,998 3,499 4,029 4,785 5,408
8 0,262 1,397 1,860 2,306 2,896 3,355 3,833 4,501 5,041
9 0,261 1,383 1,833 2,262 2,821 3,250 3,690 4,297 4,781
10 0,260 1,372 1,812 2,228 2,764 3,169 3,581 4,144 4,587
11 0,260 1,363 1,796 2,201 2,718 3,106 3,497 4,025 4,437
12 0,259 1,356 1,782 2,179 2,681 3,055 3,428 3,930 4,318
13 0,259 1,350 1,771 2,160 2,650 3,012 3,372 3,852 4,221
14 0,258 1,345 1,761 2,145 2,624 2,977 3,326 3,787 4,140
15 0,258 1,341 1,753 2,131 2,602 2,947 3,286 3,733 4,073
16 0,258 1,337 1,746 2,120 2,583 2,921 3,252 3,686 4,015
17 0,257 1,333 1,740 2,110 2,567 2,898 3,222 3,646 3,965
18 0,257 1,330 1,734 2,101 2,552 2,878 3,197 3,610 3,922
19 0,257 1,328 1,729 2,093 2,539 2,861 3,174 3,579 3,883
20 0,257 1,325 1,725 2,086 2,528 2,845 3,153 3,552 3,850
21 0,257 1,323 1,721 2,080 2,518 2,831 3,135 3,527 3,819
22 0,256 1,321 1,717 2,074 2,508 2,819 3,119 3,505 3,792
23 0,256 1,319 1,714 2,069 2,500 2,807 3,104 3,485 3,768
24 0,256 1,318 1,711 2,064 2,492 2,797 3,091 3,467 3,745
25 0,256 1,316 1,708 2,060 2,485 2,787 3,078 3,450 3,725
26 0,256 1,315 1,706 2,056 2,479 2,779 3,067 3,435 3,707
27 0,256 1,314 1,703 2,052 2,473 2,771 3,057 3,421 3,690
28 0,256 1,313 1,701 2,048 2,467 2,763 3,047 3,408 3,674
29 0,256 1,311 1,699 2,045 2,462 2,756 3,038 3,396 3,659
30 0,256 1,310 1,697 2,042 2,457 2,750 3,030 3,385 3,646
40 0,255 1,303 1,684 2,021 2,423 2,704 2,971 3,307 3,551
60 0,254 1,296 1,671 2,000 2,390 2,660 2,915 3,232 3,460
120 0,254 1,289 1,658 1,980 2,358 2,617 2,860 3,160 3,373
1000 0,253 1,282 1,646 1,962 2,330 2,581 2,813 3,098 3,300
416
Annexe 7 : Distribution normale
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451
0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148
0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867
0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170
1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985
1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455
1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143
2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036
2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019
2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010
3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007
3,2 0,0007 0,0007 0,0006 0,0006 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005
3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003
3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0002
3,5 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002
3,6 0,0002 0,0002 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001
3,7 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001
3,8 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001
3,9 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
4,0 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
4,1 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000
4,2 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000

417
Annexe 8 : Tableau Z standard
Z surface Z surface Z surface Z surface
-4,0 0,000032 -2,0 0,022750 0,0 0,500000 2,0 0,977250
-3,9 0,000048 -1,9 0,028717 0,1 0,539828 2,1 0,982136
-3,8 0,000072 -1,8 0,035930 0,2 0,579260 2,2 0,986097
-3,7 0,000108 -1,7 0,044565 0,3 0,617911 2,3 0,989276
-3,6 0,000159 -1,6 0,054799 0,4 0,655422 2,4 0,991802
-3,5 0,000233 -1,5 0,066807 0,5 0,691462 2,5 0,993790
-3,4 0,000337 -1,4 0,080757 0,6 0,725747 2,6 0,995339
-3,3 0,000483 -1,3 0,096800 0,7 0,758036 2,7 0,996533
-3,2 0,000687 -1,2 0,115070 0,8 0,788145 2,8 0,997445
-3,1 0,000968 -1,1 0,135666 0,9 0,815940 2,9 0,998134
-3,0 0,001350 -1,0 0,1586553 1,0 0,841345 3,0 0,998650
-2,9 0,001866 -0,9 0,184060 1,1 0,864334 3,1 0,999032
-2,8 0,002555 -0,8 0,211855 1,2 0,884930 3,2 0,999313
-2,7 0,003467 -0,7 0,241964 1,3 0,903200 3,3 0,999517
-2,6 0,004661 -0,6 0,274253 1,4 0,919243 3,4 0,999663
-2,5 0,006210 -0,5 0,308538 1,5 0,933193 3,5 0,999767
-2,4 0,008198 -0,4 0,344578 1,6 0,945201 3,6 0,999841
-2,3 0,010724 -0,3 0,382089 1,7 0,955435 3,7 0,999892
-2,2 0,013903 -0,2 0,420740 1,8 0,964070 3,8 0,999928
-2,1 0,017864 -0,1 0,460172 1,9 0,971283 3,9 0,999952
-2,0 0,022750 0,0 0,500000 2,0 0,977250 4,0 0,999968

418
Annexe 9: Du Z au DPMO

(Defects per Million Opportunities) avec 1,5σ de décalage par rapport à la


distribution normale
Z DPMO Z DPMO
0 933.193 3 66.807
0,1 919.243 3,1 54.799
0,2 903.200 3,2 44.565
0,3 884.930 3,3 35.930
0,4 864.334 3,4 28.717
0,5 841.345 3,5 22.750
0,6 815.940 3,6 17.864
0,7 788.145 3,7 13.903
0,8 758.036 3,8 10.724
0,9 725.747 3,9 8.198
1 691.462 4 6.210
1,1 655.422 4,1 4.661
1,2 617.911 4,2 3.467
1,3 579.260 4,3 2.555
1,4 539.828 4,4 1.866
1,5 500.000 4,5 1.350
1,6 460.172 4,6 968
1,7 420.740 4,7 687
1,8 382.089 4,8 483
1,9 344.578 4,9 337
2 308.538 5 233
2,1 274.253 5,1 159
2,2 241.964 5,2 108
2,3 211.855 5,3 72
2,4 184.060 5,4 48
2,5 158.655 5,5 32
2,6 135.666 5,6 21
2,7 115.070 5,7 13
2,8 96.800 5,8 8,5
2,9 80.757 5,9 5,4
3 66.807 6 3,4
419
Annexe 10:  selon la valeur P
n-1 P P P
0,1 0,05 0,025
1 2,71 3,84 5,02
2 4,61 5,99 7,38
3 6,25 7,81 9,35
4 7,78 9,49 11,14
5 9,24 11,07 12,83
6 10,64 12,59 14,45
7 12,02 14,07 16,01
8 13,36 15,51 17,53
9 14,68 16,92 19,02
10 15,99 18,31 20,48
11 17,28 19,68 21,92
12 18,55 21,03 23,34
13 19,81 22,36 24,74
14 21,06 23,68 26,12
15 22,31 25,00 27,49
16 23,54 26,30 28,85
17 24,77 27,59 30,19
18 25,99 28,87 31,53
19 27,20 30,14 32,85
20 28,41 31,41 34,17
21 29,62 32,67 35,48
22 30,81 33,92 36,78
23 32,01 35,17 38,08
24 33,20 36,42 39,36
25 34,38 37,65 40,65
26 35,56 38,89 41,92
27 36,74 40,11 43,19
28 37,92 41,34 44,46
29 39,09 42,56 45,72
30 40,26 43,77 46,98

420
Annexe 11: Abréviations
GB Green Belt (ceinture KPI Key Performance Indicator
verte) (Indicateur de Performance
Clé)
BB Black Belt (ceinture EVA Economic Value Added
noire) (valeur ajoutée économique)
MBB Master Black Belt KPIV Key Process Input Variables
B&C Benefits & Concerns KPOV Key Process Output Variables
SS Six Sigma C&E Cause & Effet
DMAIC Définir, Mesurer, MTBF Mean Time Between Failure
Analyser, Améliorer (délai moyen entre les
(Improve), Contrôler défauts)
DPMO Défauts par million ASM Analyse du système de
d'opportunités mesure
DPO Défauts par opportunité Cp, Cpk Capacité de processus
PPM Pièces par million IC Intervalle de confiance
σ Sigma = écart-type JK Hypothèse nulle
CTQ Critical to Quality J Hypothèse alternative
(critique pour la qualité)
LSL Lower Spec Limit (limite USL Upper Spec Limit (limite de
de spécification spécification supérieure)
inférieure)
VOC Voix du client VOB Voix de l'entreprise
VOE Voix de l'employé
WIP Work In Progress (travail DOE Design Of Experiments
en cours) (conception d'expériences)
SPC Contrôle statistique des TPI Indicateur de performance
procédés de l'équipe
RTY Rolled Throughput Yield RPN Risk Priority Number
(rendement de débit
cumulé)
SIPOC Fournisseur, Input, AMDE Analyse des modes de
Processus, Output, défaillance et de leurs effets
Client
Y Variable d'output VOP Voix du processus
X Variable d’input

421
Index
Sujet Page

AMDE .......................................................................................................... 168


Analyse de Kano............................................................................................ 58
Analyse de la variance ................................................................................ 204
Analyse du système de mesure .................................................................. 109
Analyse Pareto .............................................................................................. 92
ANOVA ........................................................................................................ 204
ANOVA bidirectionnel ................................................................................. 212
Anti-erreur .................................................................................................. 312
Asymétrique positif .................................................................................... 348
Baseline performance ................................................................................. 148
Benchmarking ............................................................................................. 289
Bimodal ....................................................................................................... 350
Binary Fitted Line Plot................................................................................. 222
Black Belt ...................................................................................................... 29
Boîte à moustaches .................................................................................... 376
Brainstorming ............................................................................................. 281
C_pk ............................................................................................................ 149
Capacité de processus ................................................................................ 143
Carte du processus ....................................................................................... 78
Cartes de contrôle ...................................................................................... 318
Casquette .................................................................................................... 285
Charte de projet.......................................................................................... 412
Coefficient de variation .............................................................................. 347
Concept factoriel fractionnaire................................................................... 257
Conception de processus robuste .............................................................. 315
Conception d'expériences .......................................................................... 238
Contribution................................................................................................ 122
COPQ............................................................................................................. 25
Corrélation .................................................................................................. 226
Critique pour la qualité ................................................................................. 54
CTQ. Voyez Critical to Quality
Défaut ........................................................................................................... 63
Définition opérationnelle ........................................................................... 100
Design de la surface de réponse ................................................................. 277

422
Diagramme arborescent ......................................................................... 64, 89
Diagramme Cause & Effet........................................................................... 161
Diagramme d’affinité .................................................................................... 57
Diagramme de Pareto ................................................................................... 92
Distance interquartiles ............................................................................... 344
Distribution normale .................................................................................. 351
Distributions ............................................................................................... 347
D-M-A-I-C ...................................................................................................... 30
Documentation du projet ........................................................................... 335
DoE.............................................................................................................. 238
Données continues ..................................................................................... 103
Données discrètes ...................................................................................... 104
Dotplot ........................................................................................................ 378
DPMO............................................................................................................ 22
Ecart-type ................................................................................................... 345
Ecart-type relatif ......................................................................................... 346
Echantillon .......................................................................................... 105, 346
Entièrement factoriel.................................................................................. 244
Equipe projet ................................................................................................ 69
Erreur d'échantillon .................................................................................... 106
Evaluation des parties prenantes ................................................................. 71
Exactitude ................................................................................................... 111
Expériences d’essai ..................................................................................... 279
Facteurs ...................................................................................................... 239
Fiable .......................................................................................................... 114
Fractionnaire Factoriel ................................................................................ 244
Graphique de séries chronologiques .......................................................... 379
Green Belt ..................................................................................................... 29
Histogramme .............................................................................................. 348
Hypothèse alternative ................................................................................ 396
Hypothèse nulle .......................................................................................... 395
I-MR ............................................................................................................ 326
Incliné ......................................................................................................... 348
Input ............................................................................................................. 79
Instruction de travail................................................................................... 317
Interaction .................................................................................................. 244
Intervalles de confiance .............................................................................. 389
Interviews ................................................................................................... 283
423
Ishikawa ...................................................................................................... 161
Jauge. Cf. Gage
Jauge de R&R .............................................................................................. 116
Kalibreren ................................................................................................... 114
Kappa .......................................................................................................... 133
Kendall ........................................................................................................ 133
Kruskal-Wallis ............................................................................................. 212
Kurtose........................................................................................................ 348
Limite de contrôle inférieure ...................................................................... 321
Limite de contrôle supérieure .................................................................... 321
Linéarité ...................................................................................................... 113
Management visuel .................................................................................... 316
Matrice AHP ................................................................................................ 297
Matrice avantages - efforts .......................................................................... 51
Matrice Cause & Effet ................................................................................. 165
Matrice de décision .................................................................................... 293
Matrice de Pugh.......................................................................................... 293
Médiane ...................................................................................................... 342
Mind mapping............................................................................................. 284
Minitab ....................................................................................................... 357
Mise en oeuvre ........................................................................................... 331
Mode .......................................................................................................... 343
Moyenne..................................................................................................... 341
Multi Vari Chart .......................................................................................... 177
Niveau ......................................................................................................... 239
Nombre de Priorité de Risque .................................................................... 171
Output .......................................................................................................... 79
Parcimonie des effets ................................................................................. 245
Pareto ......................................................................................................... 382
Pilote ........................................................................................................... 301
Plan de collecte de données ......................................................................... 97
Plan de contrôle .......................................................................................... 310
Plan en 12 étapes ......................................................................................... 32
Population .................................................................................................. 346
Portée ......................................................................................................... 343
PPM............................................................................................................... 23
Précision ..................................................................................................... 114
Principe de parcimonie des effets .............................................................. 245
424
Projet approprié ........................................................................................... 44
Propriétaire de processus ............................................................................. 28
Quality Function Deployment ....................................................................... 93
Quartiles ..................................................................................................... 344
R&R, gage- .................................................................................................. 114
RACI .............................................................................................................. 70
Régression .................................................................................................. 226
Répétabilité ................................................................................................ 114
Répétitions.................................................................................................. 268
Réplications ................................................................................................ 268
Réponse ...................................................................................................... 239
Reproductibilité .......................................................................................... 114
Reproductible ............................................................................................. 114
Résolution ........................................................................................... 105, 111
Résolution DoE ........................................................................................... 248
risque α et β ................................................................................................ 397
RPN ............................................................................................................. 171
RTY ................................................................................................................ 24
Screening DoE ............................................................................................. 251
SIPOC ............................................................................................................ 78
Six casquettes de réflexion ......................................................................... 287
Sponsor ......................................................................................................... 28
Stabilité ....................................................................................................... 112
Statistiques ................................................................................................. 339
Statistiques descriptives ............................................................................. 372
Stratification ............................................................................................... 100
Tableau T .................................................................................................... 417
Tableau Z .................................................................................................... 419
Tendance centrale ...................................................................................... 339
Test %Defective à 1 échantillon .................................................................. 198
Test %Defective à 2 échantillons ................................................................ 202
Test de normalité........................................................................................ 186
Test d'écart-type à 2 échantillons............................................................... 193
Test du Chi-carré......................................................................................... 216
Test pour les variances égales .................................................................... 208
Test t à 1 échantillon .................................................................................. 188
Test t à 2 échantillons ................................................................................. 190
Test T apparié ............................................................................................. 195
425
Tester les hypothèses ......................................................................... 185, 394
Tests bidirectionnels ................................................................................... 402
Tests unidirectionnels ................................................................................. 402
Tolérance .................................................................................................... 120
Toll-gate Review ........................................................................................... 72
Usine cachée ................................................................................................. 24
Valeur ajoutée économique ......................................................................... 75
Valeur P....................................................................................................... 401
Valeur Z ....................................................................................................... 145
Valide .......................................................................................................... 115
Variance ...................................................................................................... 345
Variation ..................................................................................................... 339
Variation de cause commune ............................................................. 320, 350
Variation de cause normale ........................................................................ 350
Variation de cause spéciale ................................................................ 320, 350
Voix du client ................................................................................................ 50
Voix du processus ....................................................................................... 321

426
The Lean Six Sigma Company délivre des formations, du coaching et
de l’assistance à la mise en oeuvre dans le domaine du Lean et du Six
Sigma. Nous accompagnons et coachons tant les organisations que les
personnes dans leurs ambitions d’amélioration des processus grâce aux
méthodologies Lean Six Sigma. Nos formations peuvent être organisées au
sein de l’entreprise cliente ou être suivies en ‘inscription libre’ inter-
entreprises.

Les cours sont orientés vers la mise en pratique du Lean Six Sigma. Leur
contenu est conforme aux critères internationaux tels que standardisés par
l’ASQ, l’IASSC et l’ISO (ISO 13053).

Chaque année, The Lean Six Sigma Company forme des centaines de
professionnels du Lean Six Sigma et leur apporte un coaching actif en exécution
de projet.

De plus, The Lean Six Sigma Company accompagne de nombreuses


entreprises dans le déploiement du Lean Six Sigma, permettant ainsi à ces
organisations de réaliser leurs ambitions d’amélioration de la performance des
processus.
Siège Belgique Siège Français
The Lean Six Sigma Company The Lean Six Sigma Company
Kievitplein 20, 130 Blvd de la Liberté
2018 ANTWERPEN 59800 LILLE
Belgique France

T: +31 (0)10 22 22 860


W: www.theleansixsigmacompany.com
E: info@theleansixsigmacompany.com Post HBO ISO 9001

Vous aimerez peut-être aussi