Vous êtes sur la page 1sur 322

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/260752273

La conception industrielle de produits - Volume III : Ingénierie de l'évaluation


et de la décision

Book · August 2008

CITATIONS READS

8 1,276

4 authors, including:

Bernard Yannou Hervé Christofol


CentraleSupélec University of Angers
448 PUBLICATIONS   2,709 CITATIONS    28 PUBLICATIONS   163 CITATIONS   

SEE PROFILE SEE PROFILE

Nadège Troussier
Université de Technologie de Troyes
108 PUBLICATIONS   563 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Filière Outillage View project

Indoor thermal comfort View project

All content following this page was uploaded by Bernard Yannou on 18 December 2014.

The user has requested enhancement of the downloaded file.


La conception industrielle de produits 3
© LAVOISIER, 2008
LAVOISIER
11, rue Lavoisier
75008 Paris

www.hermes-science.com
www.lavoisier.fr

ISBN volume 3 978-2-7462-1923-6


ISBN général 978-2-7462-1920-4

Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une part,
que les "copies ou reproductions strictement réservées à l'usage privé du copiste et non
destinées à une utilisation collective" et, d'autre part, que les analyses et les courtes citations
dans un but d'exemple et d'illustration, "toute représentation ou reproduction intégrale, ou
partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, est
illicite" (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce
soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Tous les noms de sociétés ou de produits cités dans cet ouvrage sont utilisés à des fins
d’identification et sont des marques de leurs détenteurs respectifs.

Printed and bound in England by Antony Rowe Ltd, Chippenham, May 2008.
La conception industrielle
de produits
volume 3

ingénierie de l’évaluation
et de la décision

sous la direction de
Bernard Yannou
Hervé Christofol
Daniel Jolly
Nadège Troussier
DIRECTION ÉDITORIALE HISHAM ABOU-KHANDIL
Collection Productique
SOUS LA DIRECTION DE JEAN-PAUL BOURRIÈRES

Gestion et performance des systèmes hospitaliers, Eric Marcon, Alain


Guinet, Christian Tahon, 2007.

La conception industrielle de produits 1 : management des hommes, des


projets et des informations, Bernard Yannou, Michel Bigand, Thierry Gidel,
Christophe Merlo, Jean-Pierre Vaudelin, 2008.

La conception industrielle de produits 2 : spécifications, déploiement et


maîtrise des performances, Bernard Yannou, Vincent Robin, Mauricio
Camargo, Jean-Pierre Micaëlli, Lionel Roucoules, 2008.
Liste des auteurs

Harriet BLACK NEMBHARD Fabrice MANTELET


Industrial Engineering Dpt Arts et Métiers ParisTech
Penn State University Paris
Etats-Unis
Jean-Pierre MATHIEU
Carole BOUCHARD AUDENCIA
Arts et Métiers ParisTech Nantes
Paris
Jean-Pierre NADEAU
Nassim BOUDAOUD Arts et Métiers ParisTech
Université de Technologie Bordeaux
Compiègne
Jérôme PAILHES
Stéphanie BUISINE Arts et Métiers ParisTech
Arts et Métiers ParisTech Bordeaux
Paris
Jean-François PETIOT
Mauricio CAMARGO Ecole Centrale Nantes
ENSGSI
Nancy Jean RENAUD
ENSGSI
Alaa CHATEAUNEUF Nancy
Université Blaise Pascal
Clermont-Ferrand Benoît ROUSSEL
ENSGSI
Hervé CHRISTOFOL Nancy
ISTIA
Université d'Angers Dominique SCARAVETTI
Arts et Métiers ParisTech
Anne GUENAND Bordeaux
Université de Technologie
Compiègne Patrick SÉBASTIAN
Université Bordeaux 1
Daniel JOLLY
Université d'Artois Nadège TROUSSIER
Béthune Université de Technologie
Compiègne
Anne-Marie JOLLY-DESODT
ENSAIT Bernard YANNOU
Roubaix Ecole Centrale Paris
TABLE DES MATIÈRES

Introduction générale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Bernard YANNOU

Introduction au volume 3. Ingénierie de l’évaluation et de la décision 21


Hervé CHRISTOFOL

PREMIÈRE PARTIE. Evaluation sensorielle et sémantique


dans les phases préliminaires du processus de conception . . . . . . . . 25

Chapitre 1. Introduction aux méthodes d’évaluation sensorielle


et sémantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Hervé CHRISTOFOL, Carole BOUCHARD
1.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2. Les différentes approches de l’évaluation subjective . . . . . . . . . 29
1.2.1. Classement des différentes approches . . . . . . . . . . . . . . . . 29
1.2.2. Les méthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.2.2.1. L’analyse fonctionnelle. . . . . . . . . . . . . . . . . . . . . . . . 31
1.2.2.2. Recueil des imaginaires clients et méthodes d’évaluation
marketing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.2.2.3. L’analyse conjointe . . . . . . . . . . . . . . . . . . . . . . . . . 32
8 La conception industrielle des produits 3

1.2.2.4. La conception à l’écoute du marché . . . . . . . . . . . . . . . 32


1.2.2.5. L’évaluation des attributs du produit . . . . . . . . . . . . . . 33
1.2.2.6. L’analyse des harmonies chromatiques . . . . . . . . . . . . . 33
1.2.2.7. L’évaluation micro-psychologique . . . . . . . . . . . . . . . 34
1.2.2.8. Le chaînage cognitif moyens-fins et le chaînage
valeurs-fonctions-attributs . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.2.3. Méthodes ayant fait l’objet d’expérimentations présentées
dans cet ouvrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.2.3.1. L’analyse de l’usage. . . . . . . . . . . . . . . . . . . . . . . . . 35
1.2.3.2. L’analyse sémantique . . . . . . . . . . . . . . . . . . . . . . . . 36
1.2.3.3. L’analyse sensorielle . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2.3.4. L’analyse des phénomènes physiques. . . . . . . . . . . . . . 38
1.2.4. Etudes comparées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

Chapitre 2. Analyse de l’usage. . . . . . . . . . . . . . . . . . . . . . . . . . . 43


Stéphanie BUISINE, Benoît ROUSSEL
2.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2. L’usage, une thématique levier pour innover en intégrant
les utilisateurs et l’industriel dans l’acte de conception . . . . . . . . . . 44
2.2.1. Qu’est-ce que l’usage ? . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3. L'ergonomie et ses notions essentielles. . . . . . . . . . . . . . . . . . 45
2.3.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3.2. La démarche d'ergonomie lors d'intervention en entreprise. . . 46
2.3.3. Activités réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.3.4. Méthodologie d’observation et d’analyse des activités . . . . . 49
2.3.4.1. Le cadre d’analyse . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3.4.2. La description de l’activité. . . . . . . . . . . . . . . . . . . . . 51
2.4. Etude de cas : conception d’une interface automobile à partir
des données d’usage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4.1. Contexte de l’étude et demande industrielle . . . . . . . . . . . . 52
2.4.2. Démarche méthodologique . . . . . . . . . . . . . . . . . . . . . . . 53
2.4.3. Résultats. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4.4. Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.5. L’usage : un terme global regroupant des visions locales
sur l’usager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.6. Coopérer pour intégrer et intégrer pour concevoir. . . . . . . . . . . 59
Table des matières 9

Chapitre 3. Analyse sémantique en conception des produits . . . . . . . 61


Anne GUENAND, Fabrice MANTELET
3.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2. De la sémiologie à la sémantique . . . . . . . . . . . . . . . . . . . . . 62
3.3. L’analyse sémantique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3.1. Construction d’une grille sémantique . . . . . . . . . . . . . . . . . 64
3.3.2. Choix des adjectifs sémantiques . . . . . . . . . . . . . . . . . . . . 66
3.3.3. Sélection du panel d’utilisateurs . . . . . . . . . . . . . . . . . . . . 66
3.3.4. Choix des produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.4. Exploitation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.4.1. Traitement des résultats par moyenne et écart type . . . . . . . . 67
3.4.2. Traitement des résultats par ACP . . . . . . . . . . . . . . . . . . . 68
3.5. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.6. Enoncé des exercices d’application . . . . . . . . . . . . . . . . . . . . 70
3.6.1. Exercice n° 1 : constitution d’une liste de descripteurs
sémantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.6.2. Exercice n° 2 : choix de l’échelle . . . . . . . . . . . . . . . . . . . 71
3.6.3. Exercice n° 3 : analyse des données . . . . . . . . . . . . . . . . . . 72
3.7. Corrigés des exercices d’application . . . . . . . . . . . . . . . . . . . 72
3.7.1. Exercice n° 1 : constitution d’une liste de descripteurs
sémantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.7.2. Exercice n° 2 : choix de l’échelle . . . . . . . . . . . . . . . . . . . 72
3.8. Cas d’application industrielle : articulation valeurs sémantiques
et caractéristiques sensorielles . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.8.1. Déroulement de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.8.2. Application des résultats : aide à la décision . . . . . . . . . . . . 77

Chapitre 4. Analyse sensorielle en conception de produits . . . . . . . . 79


Jean-François PETIOT
4.1. Introduction et objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2. Méthode « analyse sensorielle » . . . . . . . . . . . . . . . . . . . . . . 80
4.2.1. Les descripteurs sensoriels et le panel d’experts . . . . . . . . . . 81
4.2.2. Les épreuves de préférences . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.3. Cartographie des préférences . . . . . . . . . . . . . . . . . . . . . . 85
4.3. Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4. Exercice d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.4.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10 La conception industrielle des produits 3

4.4.2. Partie 1 : analyse en composantes principales . . . . . . . . . . . 90


4.4.2.1. Etude du plan factoriel des variables . . . . . . . . . . . . . 92
4.4.2.2. Etude du plan factoriel des individus (observations) . . 92
4.4.2.3. Etude des corrélations descripteur sensoriel/mesures
objectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4.3. Partie 2 : cartographie des préférences . . . . . . . . . . . . . . . 93
4.4.3.1. Cartographie de préférences avec le modèle vectoriel . . 93
4.4.4. Eléments de corrigé de l’exercice . . . . . . . . . . . . . . . . . . 94

Chapitre 5. Analyse des phénomènes physiques . . . . . . . . . . . . . . 97


Jérôme PAILHES, Jean-Pierre NADEAU
5.1. Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.2. Moments significatifs et situations de vie . . . . . . . . . . . . . . . 97
5.3. Recherche des variables sensorielles VS. . . . . . . . . . . . . . . . 100
5.4. Identification des grandeurs physiques pertinentes . . . . . . . . . 100
5.5. Réduction des grandeurs physiques pertinentes aux variables
de conception VCo et aux critères Cr. . . . . . . . . . . . . . . . . . . . . 104
5.6. Quantification des variables pertinentes . . . . . . . . . . . . . . . . 106
5.7. Recherche des relations entre les VCo, Cr et les variables
sensorielles VS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.8. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.9. Exercice d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.9.1. Mise en situation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.9.2. Enoncé de l’exercice . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.9.3. Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.10. Conclusion de l’exercice . . . . . . . . . . . . . . . . . . . . . . . . . 115

DEUXIÈME PARTIE. Exploration de l’espace de conception


et conception optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

Chapitre 6. Exploration de l’espace de conception par construction


de modèles approximés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Nassim BOUDAOUD
6.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.1.1. Processus de conception de produits techniques . . . . . . . . . 120
6.1.2. Maîtrise des performances du produit . . . . . . . . . . . . . . . 121
Table des matières 11

6.2. Construction de méta-modèles de comportement . . . . . . . . . . 123


6.2.1. Plans d’expérience . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.2.1.1.Critères basés sur la variance des coefficients (VC) . . 125
6.2.1.2. Critères basés sur la précision (PM) . . . . . . . . . . . . . . 126
6.2.2. Les différents types de plans d’expériences . . . . . . . . . . . . 126
6.2.2.1. Cas linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.2.2.2. Cas quadratique : plans à surfaces de réponse. . . . . . . . 128
6.2.3. Critères de validation . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.3. Exercices de travaux dirigés : construction de méta-modèle . . . 130

Chapitre 7. Conception sous incertitudes : programmation


par contraintes et frontières de Pareto . . . . . . . . . . . . . . . . . . . . 131
Bernard YANNOU
7.1. Introduction au cas d’application du dimensionnement de treillis 131
7.2. Exploration de l’espace de conception . . . . . . . . . . . . . . . . . 134
7.2.1. Conception sous incertitudes en amont du processus
de conception. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
7.2.2. Programmation par contraintes . . . . . . . . . . . . . . . . . . . . 136
7.2.3. Gestion des compromis en utilisant les frontières de Pareto . 141
7.3. Exercices de travaux dirigés : exploration de l’espace
de conception. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

Chapitre 8. Pré-dimensionnement d’un système de conditionnement


d’air d’avion civil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
Dominique SCARAVETTI, Patrick SÉBASTIAN
8.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.1.1. Conception préliminaire . . . . . . . . . . . . . . . . . . . . . . . . 149
8.1.2. Avantages de l'utilisation de la programmation par contraintes 151
8.2. Description du problème de conception . . . . . . . . . . . . . . . . 152
8.2.1. Description du système et de son contexte d'utilisation . . . . 152
8.2.2. Solveur et modélisation . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.2.3. Modèle du problème de conception du SCA . . . . . . . . . . . 156
8.3. Résolution et aide à la décision. . . . . . . . . . . . . . . . . . . . . . 157
8.4. Discussion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
12 La conception industrielle des produits 3

Chapitre 9. Conception robuste . . . . . . . . . . . . . . . . . . . . . . . . . 163


Nadège TROUSSIER
9.1. Introduction à la démarche de conception robuste de Taguchi . . 165
9.2. La démarche appliquée sur un exemple . . . . . . . . . . . . . . . . 165
9.2.1. Construction du plan d’expériences . . . . . . . . . . . . . . . . . 167
9.2.2. Le rapport signal / bruit . . . . . . . . . . . . . . . . . . . . . . . . . 169
9.2.3. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.3. Exercices de travaux dirigés : analyse de la robustesse
des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

Chapitre 10. Conception fiable . . . . . . . . . . . . . . . . . . . . . . . . . 171


Alaa CHATEAUNEUF
10.1. Analyse de la fiabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . 173
10.2. Comparaison des conceptions déterministe et fiabiliste . . . . . 177
10.3. Formulation de l’optimisation fiabiliste . . . . . . . . . . . . . . . 183
10.4. Conclusion et démarche pratique pour une maîtrise globale
des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
10.4.1. Exercices de travaux dirigés : analyse de la fiabilité
des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

TROISIÈME PARTIE. Ingénierie de la décision pour la conception. . . 193

Chapitre 11. Introduction à l’ingénierie de la décision. . . . . . . . . . 195


Daniel JOLLY, Jean RENAUD, Bernard YANNOU
11.1. Aide à la décision : quels outils, pour quoi faire ? . . . . . . . . . 195
11.2. Les méthodes d’instruction de la décision . . . . . . . . . . . . . . 195
11.3. Les fondements théoriques du multicritère . . . . . . . . . . . . . 196
11.3.1. La robustesse multicritère . . . . . . . . . . . . . . . . . . . . . . 199
11.3.2. La robustesse décisionnelle . . . . . . . . . . . . . . . . . . . . . 199
11.3.3. La robustesse procédurale . . . . . . . . . . . . . . . . . . . . . . 199
11.4. Le cas d’un processus de décision multi-décideurs . . . . . . . . 200
11.5. Conclusion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Table des matières 13

Chapitre 12. L’agrégation complète – les OWA . . . . . . . . . . . . . . 203


Anne-Marie JOLLY-DESODT, Jean RENAUD, Mauricio CAMARGO
12.1. MAUT (MultiAttribute Utility Theory) . . . . . . . . . . . . . . . . 203
12.2. Somme pondérée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
12.3. SMART . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
12.4. Méthode MACBETH . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
12.5. Les opérateurs d’agrégation . . . . . . . . . . . . . . . . . . . . . . . 206
12.5.1. Différents types d’opérateurs d’agrégation . . . . . . . . . . . 207
12.5.1.1. Opérateurs minimum et maximum . . . . . . . . . . . . . . 207
12.5.1.2. Somme pondérée et moyennes généralisées . . . . . . . . 207
12.5.1.3. Opérateurs minimum et maximum pondérés. . . . . . . . 208
12.5.2. Les opérateurs OWA . . . . . . . . . . . . . . . . . . . . . . . . . . 208
12.5.2.1. Quantificateurs linguistiques . . . . . . . . . . . . . . . . . 209
12.5.2.2. Orness et dispersion . . . . . . . . . . . . . . . . . . . . . . . 210
12.6. Opérateurs d’agrégations basés sur l’intégrale floue
pour la prise de décision en conception . . . . . . . . . . . . . . . . . . . 210
12.6.1. Un exemple d’application pour la conception optimale
produit-procédé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213

Chapitre 13. Les méthodes de surclassement – L’école française :


les « Electre » et l’école belge : Prométhée Gaia, Qualiflex, Oreste . 219
Anne-Marie JOLLY-DESODT et Bernard YANNOU
13.1. La notion de surclassement . . . . . . . . . . . . . . . . . . . . . . . 219
13.2. Les méthodes Electre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
13.2.1. Méthodes Electre correspondant à une problématique
de choix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
13.2.1.1. Electre1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
13.2.1.2. Electre 1v. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
13.2.1.3. Electre Is . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
13.2.2. Méthode Electre correspondant à une problématique
de rangement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
13.2.2.1. Electre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
13.2.2.2. Electre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
13.2.2.3. Electre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
14 La conception industrielle des produits 3

13.2.3. Méthodes Electre correspondant à une problématique de tri 227


13.2.3.1. Trichotomie de Moscarola et Roy . . . . . . . . . . . . . . 227
13.2.3.2. Electre TRI. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
13.3. Les méthodes Prométhée. . . . . . . . . . . . . . . . . . . . . . . . . 228
13.3.1. Prométhée 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
13.3.2. Prométhée 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
13.3.3. Qualiflex. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
13.3.4. Oreste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
13.3.5. Méthode de surclassement dans l’incertain . . . . . . . . . . . 231
13.3.6. Exemple d’application industrielle . . . . . . . . . . . . . . . . . 231
13.3.6.1. Présentation du problème. . . . . . . . . . . . . . . . . . . . 232
13.3.6.2. Principes de préférences entre scores et flux
de préférences entrant et sortant. . . . . . . . . . . . . . . . . . . . . . 233
13.3.6.3. Etape de préparation des données dans notre cas
d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
13.3.6.4. Résultats Prométhée 1 et 2 avec le plan Gaia
et l’analyse de sensibilité des poids . . . . . . . . . . . . . . . . . . . 237
13.3.6.5. Résultats en termes de classements partiels et totaux . . 239
13.3.7. Logiciels existants . . . . . . . . . . . . . . . . . . . . . . . . . . . 241

Chapitre 14. La méthode COMPARE pour l’aide à la spécification


et au choix de concepts par comparaisons par paires. . . . . . . . . . . 243
Bernard YANNOU
14.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
14.2. Synoptique de la méthode COMPARE et introduction
à l’analyse perceptuelle des planches de bord . . . . . . . . . . . . . . . 244
14.3. La première étape d’évaluation perceptuelle par comparaisons
par paires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
14.4. La deuxième étape de génération d’une spécification . . . . . . . 249
14.5. La quatrième étape d’évaluation de nouveaux concepts
de solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
14.6. Conclusion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
Table des matières 15

Chapitre 15. Les options réelles en ingénierie de la conception :


opportunités et défis sur le problème du mix des moteurs véhicules. 255
Harriet BLACK NEMBHARD, Bernard YANNOU
15.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
15.2. La théorie des options réelles relativement aux autres méthodes
d’aide à la décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
15.3. Les options réelles dans les systèmes de production. . . . . . . . 257
15.4. Contraintes et critères sur le mix de moteurs véhicules . . . . . . 258
15.5. Cadre et méthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
15.6. Formulation d’une option d’expansion . . . . . . . . . . . . . . . . 262
15.7. Exemple numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
15.8. Discussion et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 268

Chapitre 16. Application des Rough Sets à la prise de décision . . . . 271


Jean RENAUD
16.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
16.2. Développement théorique . . . . . . . . . . . . . . . . . . . . . . . . 272
16.3. Table de décision et règles de préférence . . . . . . . . . . . . . . 277

Chapitre 17. L’analyse des mesures conjointes . . . . . . . . . . . . . . . 281


Jean-Pierre MATHIEU
17.1. Les racines et applications . . . . . . . . . . . . . . . . . . . . . . . . 281
17.2. Objectifs et contrainte d’application. . . . . . . . . . . . . . . . . . 282
17.3. Les étapes d’une analyse des mesures conjointes . . . . . . . . . 282
17.3.1. Détermination des attributs. . . . . . . . . . . . . . . . . . . . . . 285
17.3.2. Les méthodes de collecte des données . . . . . . . . . . . . . . 285
17.3.2.1. La méthode du profil complet . . . . . . . . . . . . . . . . . 286
17.3.2.2. La méthode du trade off . . . . . . . . . . . . . . . . . . . . 286
17.3.2.3. La méthode des comparaisons par paire . . . . . . . . . . 286
17.3.2.4. La méthode hybride . . . . . . . . . . . . . . . . . . . . . . . 286
17.3.3. Le choix d’un modèle de combinaisons des utilités . . . . . . 287
17.3.3.1. Choix d’une méthode d’estimation des utilités . . . . . . 287
17.4. Interprétation et évaluation de la qualité des résultats. . . . . . . 288
16 La conception industrielle des produits 3

17.4.1. Les tests de validations . . . . . . . . . . . . . . . . . . . . . . . . 288


17.4.2. Interprétation des résultats. . . . . . . . . . . . . . . . . . . . . . 288
17.4.3. Validation des résultats. . . . . . . . . . . . . . . . . . . . . . . . 289
17.5. Un exemple d’application . . . . . . . . . . . . . . . . . . . . . . . . 289
17.6. Mise en perspective de la méthode . . . . . . . . . . . . . . . . . 291

Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311

Sommaire volume 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315

Sommaire volume 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319


INTRODUCTION GÉNÉRALE

La conception industrielle de produits

La conception industrielle de produits tente de concilier ce qui est


a priori difficilement conciliable : la création et l’innovation sur les produits
et les impératifs industriels de maîtrise de la qualité, des délais et des coûts.
Une mécanique industrielle de lancement de produit nouveau se met donc en
route par le truchement de projets plus ou moins innovants de conception-
industrialisation de produit. Ces projets sont organisés de telle manière qu’il
devient possible à des métiers et disciplines différents de co-concevoir un
produit en structurant et synchronisant leurs activités autour d’une gestion
des tâches et des rôles, d’outils, de documents et de procédures standards, de
moments organisés (jalons) de décisions collectives. Cette structuration en
projet est d’autant plus nécessaire que le produit est complexe, le nombre de
concepteurs important, et le secteur concurrentiel.

Nous avons voulu aborder les problématiques actuelles de la conception


industrielle de produits au travers du prisme de l’évaluation et de la décision
durant le processus de conception d’un produit. En effet, ces étapes
d’évaluation et de décision s’opèrent à tout niveau du produit, à tout moment
du projet, que ce soit à titre individuel – celui d’un acteur du projet – ou au
titre d’une équipe de conception. Elles représentent le « C » du modèle du
cycle d’amélioration continue PDCA (Plan-do-check-act), dit roue de
Deming, qui consiste en un cycle d’analyse, de proposition de solution(s)
conceptuelle(s), d’évaluation de cette(ces) solution(s), de choix d’une
solution et de développement de cette solution.
18 La conception industrielle de produits 3

Le propre de la conception de produits est d’avancer de la sorte par


propositions, évaluations et choix successifs.

Or, bien qu’unanimement reconnues comme étant primordiales pour


assurer la qualité des processus et des résultats de conception, ainsi que pour
garantir une certaine équité, transparence et efficacité de travail, ces tâches
d’évaluation et de décision s’avèrent souvent être les moins formalisées et
documentées. Quelles étaient les hypothèses sous-jacentes à cette évaluation
du produit alors qu’il était à l’état de concept ? Quels étaient les critères qui
ont présidé au choix de cette solution ou aux raisons de cette reconception ?
Sans outil pour évaluer, sans processus de décision explicité, sans une
capitalisation des connaissances générées en cours de projet, une entreprise
ne saura plus revenir sur une hypothèse ou une décision pour reconcevoir ou
réactualiser son produit face à une concurrence qui évolue en permanence.

Le thème de l’évaluation et de la décision nous permet donc de parcourir


toute l’étendue du champ de l’ingénierie de la conception en se référant plus
largement au champ du génie industriel. Cette série de trois volumes est
conçue pour trois objectifs :
– avoir un descriptif des projets industriels de lancement de produits
nouveaux et des problématiques actuelles associées en abordant une grande
diversité de secteurs industriels pour souligner à la fois les points communs
et les différences d’approche ;
– isoler les concepts et théories structurantes qui font l’objet de
recherches actuelles dans le domaine de l’ingénierie de la conception au sens
large ;
– être un ouvrage pédagogique de référence en proposant, dès que
possible, des énoncés de problèmes et exercices avec corrigés. Le lecteur
désireux d’approfondir l’énoncé d’un cas d’étude, les explications d’un
corrigé, ou désirant utiliser des données (fichiers Excel) ou des codes
informatiques (Matlab ou Scilab) utilisés par les auteurs, des images ou des
articles scientifiques, pourra télécharger les documents supports
supplémentaires mis à disposition sur le site Hermès : www.hermes-
science.fr/yannou/cip.zip.

Le public visé est à la fois celui des acteurs industriels (techniciens et


ingénieurs), des étudiants de niveaux maîtrise, master professionnel, master
recherche et des doctorants en génie industriel, mais aussi des consultants,
enseignants et enseignants-chercheurs.
Introduction générale 19

Les trois volumes de la série ont été organisés autour des aspects humains
et d’organisation pour le volume 1, des aspects de gestion des paramètres du
produit durant le déroulement du projet pour le volume 2, et des méthodes
spécifiques d’évaluation et d’aide à la décision appliquées à la conception de
produits pour le volume 3. Leurs titres :
– volume 1 : « Management des hommes, des projets et des informations » ;
– volume 2 : « Spécifications, déploiement et maîtrise des performances » ;
– volume 3 : « Ingénierie de l’évaluation et de la décision ».

Cette série de trois volumes est le fruit du travail collaboratif de quarante-neuf


co-auteurs (dont quarante-cinq enseignants-chercheurs – professeurs des
universités, maîtres de conférences et post-doctorants) appartenant à vingt-
deux universités et écoles d’ingénieurs (dont une université américaine), et
quatre partenaires autres (grande entreprise, agence de l’état et cabinets
conseils).

Ce travail n’aurait jamais vu le jour sans l’impulsion décisive et le


support financier du groupement national d’enseignement et de recherche
AIP-PRIMECA1. Une étape décisive de ce projet a été l’Université d’été
organisée en septembre 2006 sur le campus de l’Ecole Centrale Paris, sur le
thème « Evaluation et décision dans le processus de conception ». Le groupe
de recherche (GDR) en automatique du CNRS intitulé MACS (modélisation,
analyse et conduite des systèmes dynamiques)2 a également été un lieu de
débats et d’échanges scientifiques à la base de la constitution de la
communauté des co-auteurs. Qu’ils en soient remerciés.

Bernard YANNOU

1. http://www.aip-primeca.net/
2. Il s’agit des groupes de travail IS3C (ingénierie des systèmes de conception et conduite du
cycle de vie produit) et C2EI (modélisation et pilotage des systèmes de connaissances et de
compétences dans les entreprises industrielles).
INTRODUCTION AU VOLUME 3

Ingénierie de l’évaluation et de la décision

Les exigences croissantes de qualité et de fiabilité des produits, la


législation relative à la sécurité des biens, la réduction des risques dans les
projets, l’optimisation du processus de conception et la capitalisation des
connaissances générées par les concepteurs ont motivé les chefs de projet et
les chercheurs à développer des méthodes originales d’évaluation et d’aide à
la décision. Ce sont les résultats de ces bonnes pratiques et des modèles
sous-jacents que nous allons expliciter dans les trois parties de cet ouvrage.

La première partie, Evaluation sensorielle et sémantique dans les phases


préliminaires du processus de conception, présente en détails quatre
méthodes d’évaluation des attributs sensoriels et sémantiques du produit que
l’équipe de conception peut mettre en œuvre dès les premières phases du
projet de conception. Auparavant, l’apparence du produit était la dernière
caractéristique que l’on concevait. L’usage du produit n’était également
étudié qu’une fois le prototype réalisé. Or l’aspect, les performances
sensorielles et l’usage d’un produit sont les premières qualités perçues par
les utilisateurs et elles contribuent pleinement à leur satisfaction.
Aujourd’hui, la conception de ces attributs n’est plus subordonnée aux
attributs structurels. La forme et la structure sont maintenant conçues
simultanément et des méthodes telles que l’analyse sensorielle et l'analyse
des phénomènes physiques permettent de corréler les variables structurelles
(variables de conception) et les performances sensorielles (liées aux
préférences des consommateurs). Dès les premières activités de conception,
ingénieurs, marketeurs, designers et ergonomes travaillent ensemble pour
22 La conception industrielle de produits 3

générer ces attributs et évaluer les performances des concepts de solutions


selon leurs différents points de vue.

En tout, cette partie recense douze méthodes d’évaluation sensorielles et


sémantiques. Quatre d’entre elles, parmi les plus utilisées et les plus
interdisciplinaires, sont développées et illustrées par des cas concrets. Trois
exercices corrigés permettent d’en apprécier la mise en œuvre.

Les outils et méthodes développés dans la deuxième partie, Exploration


de l’espace de conception et conception optimale, permettent aux
concepteurs de modéliser l’espace des conceptions possibles puis de
l’étudier suivant plusieurs points de vue :
– celui de l’optimisation des performances attendues, spécifiées dans le
cahier des charges du système ;
– celui de sa robustesse, c’est-à-dire de la sensibilité de ses performances
aux variabilités des conditions de fabrication et d’utilisation ;
– celui de sa fiabilité, c’est-à-dire de l’évolution de son comportement
dans le temps – sa tenue à l’endurance –.

Ces méthodes sont présentées puis illustrées à l’aide d’un cas


pédagogique transversal – un treillis à deux barres – ainsi qu’au travers du
cas industriel de la conception préliminaire d’un système de
conditionnement d’air d’avion civil. Deux exercices corrigés permettent au
lecteur de manipuler les concepts de la conception robuste et fiable.

La troisième partie, Ingénierie de la décision pour la conception, replace


le décideur au sein du processus de conception. Elle rappelle que tout
problème de conception industrielle est un problème complexe,
multidisciplinaire et ouvert, pour lequel il n’existe pas de solution unique
mais un ensemble de solutions satisfaisantes. Cette partie présente
huit méthodes et outils d’aide à la décision organisés en deux groupes : les
méthodes d’agrégation totale qui consistent à comparer l’ensemble des
solutions décrites par leurs critères de performances afin de les classer selon
une fonction d’utilité unique (chapitres 12 et 14) et les méthodes
d’agrégation partielle qui admettent que certains critères ne soient pas
comparables entre eux (chapitre 13). Des recherches récentes ont également
permis d’adapter aux problèmes de conception de produits, des méthodes
d’aide à la décision initialement développées pour d’autres champs
d’applications tels que la finance ou le marketing (chapitres 15 à 18).
Introduction au volume 3 23

L’ensemble de ces méthodes nous rappelle que le processus de décision est


contingent aux préférences du ou de(s) décideur(s) et que l’explicitation de
celles-ci permet de choisir la méthode la plus appropriée et celle qui
conduira à la solution la plus robuste c’est-à-dire la moins sensible aux
fluctuations techniques, économiques, managériales ou politiques.

Souhaitons que ces trois parties complémentaires vous permettent


d’enrichir vos projets, vos enseignements et vos recherches sur les processus
d’évaluation et de décision au cours des projets de conception de produits
industriels.

Hervé CHRISTOFOL
PREMIÈRE PARTIE

Evaluation sensorielle et sémantique


dans les phases préliminaires
du processus de conception

Partie coordonnée par Hervé CHRISTOFOL.


CHAPITRE 1

Introduction aux méthodes d’évaluation


sensorielle et sémantique

1.1. Introduction

Traditionnellement, l’esthétique industrielle relève des prérogatives du


designer. Cependant le travail du designer ne se limite pas à cette dimension
de la conception du produit et celle-ci nécessite l’intégration de multiples
compétences pour être définie, puis réalisée en série. En effet, la perception
d’un produit et en particulier sa perception esthétique est
multidimensionnelle. Elle regroupe, entre autres choses, l’appréciation des
qualités sensorielles, sémantiques et stylistiques mais également une
réflexion sur l’usage et l’éthique du produit manufacturé. Ainsi, plusieurs
métiers se sont intéressés à modéliser, de leur point de vue, leur contribution
à la conception de l’esthétique des produits manufacturés. Le marketing a
développé un marketing sensoriel, les designers ont développé un design
sensoriel, les ingénieurs ont développé l’analyse sensorielle et l’analyse des
phénomènes physiques associés, les ergonomes ont formalisé une analyse de
l’usage et ensemble, des chercheurs issus de spécialités différentes ont
formalisé l’analyse des tendances [CHR 96]. Face à cette approche
multidisciplinaire, des chercheurs en sciences pour l’ingénieur ont pris
l’initiative de coordonner ces différentes approches et méthodes en vue
d’aider les responsables de projet dans le pilotage de leurs activités de

Chapitre rédigé par Hervé CHRISTOFOL et Carole BOUCHARD.


28 La conception industrielle de produits 3

conception des attributs sensoriels, stylistiques et sémantiques des produits.


Plus précisément, ils se sont intéressés aux méthodes d’évaluation de ces
attributs.

Nous avons identifié, étudié et comparé plusieurs méthodes d’évaluation


des qualités sensorielles, sémantiques et d’usage des produits. Nous avons
également étudié la corrélation entre les attributs sensibles et les
phénomènes physiques associés. Ces travaux ont été formalisés dans un
cours [AIP 06] construit par neuf enseignants-chercheurs issus de six
établissements d’enseignement supérieur et de recherche3.

En effet, il nous est apparu d’une part que les phases préliminaires du
processus de conception, que l’on peut délimiter par les phases de définition
du projet jusqu’à la phase de conception générale comprise, sont celles qui
sont le moins formalisées. Et d’autre part qu’aujourd’hui les pratiques de
conception (sensorielle et sémantique) durant les phases préliminaires
accordent une place secondaire et limitée à l’évaluation par rapport à la place
accordée au processus de génération de concepts. Nous pouvons avancer
plusieurs raisons qui expliquent que les activités d’évaluation des
propositions de solutions soient souvent sacrifiées dans les projets de
conception :
– elles interviennent en fin de phases alors que le temps qui leur était
imparti a pu déjà être consommé par les activités précédentes (études et
modélisations, créativité, gestion de l’information, communication, gestion
du projet, faisabilité, etc.) ;
– les informations figurant dans les cahiers des charges ne sont pas
toujours mises à jour ;
– les concepteurs peuvent être égocentrés et se satisfaire de leur
autoévaluation ;
– les décideurs peuvent se considérer omniscients et ne pas valoriser
d’autres points de vue que le leur, etc.

3. Ce groupe est constitué de l’ensemble des auteurs de cette première partie de l’ouvrage :
Carole BOUCHARD, Stéphanie BUISINE, Hervé CHRISTOFOL coordonnateur du groupe, Anne
GUENAND, Fabrice MANTELET, Jean-Pierre NADEAU, Jérome PAILHES, Jean-François PETIOT,
Benoît ROUSSEL.
Méthodes d’évaluation sensorielle et sémantique 29

Or les activités d’évaluation de l’équipe de conception ont de multiples


objectifs aux regards des différentes parties prenantes des projets. L’équipe
de projet évalue ses propositions à la fois pour :
– réduire le champ des possibles,
– identifier le produit qui satisfait le mieux les exigences de conception,
– segmenter l’offre de produit,
– valider les représentations intermédiaires (maquettes, prototypes, etc.),
les fonctions, ou les attributs (granularité) du produit, etc.

Mais l’évaluation permet également de mieux connaître les attentes des


utilisateurs ainsi que leurs critères d’évaluation. En effet c’est grâce à elle
que le concepteur parviendra à comprendre les liens et les écarts entre l’objet
conçu et l’objet perçu par le consommateur.

D’autre part, l’évaluation contribue en amont à une définition plus précise


des objectifs de conception (positionnement marketing, stylistique ou
sémantique) grâce à une redéfinition de l’espace problème. En ce sens, elle
permet de valider des hypothèses de conception et de faire émerger des
connaissances. Notamment, au travers de l’expression précoce de divers
points de vue métiers, l’évaluation favorisera une concertation et un
compromis avancé permettant de résoudre les conflits de contraintes avant
même d’avoir engagé des coûts humains et matériels importants. De cette
manière l’évaluation multi-métiers conduit à anticiper les problèmes avals
dès les phases préliminaires.

Enfin elle permet au décideur d’étayer et d’argumenter ses choix.

1.2. Les différentes approches de l’évaluation subjective

1.2.1. Classement des différentes approches

Les activités relatives à l’évaluation préliminaire en conception


participent à l’optimisation de la conception. Parmi les activités
d’évaluation, l’évaluation subjective regroupe trois types d’études :
– A. Les études qui relèvent d’un contrôle de conformité du prototype vis-
à-vis des exigences du cahier des charges, concernant ces différentes
caractéristiques (formes, couleurs, textures, matières, fonctions, technologies) ;
30 La conception industrielle de produits 3

– B. Les études de la cible marketing susceptible d’acheter et d’utiliser le


produit. Elles permettent de réduire l’incertitude sur la spécificité des
attentes des consommateurs ciblés (caractéristiques et exigences ou attentes
spécifiques) ;
– C. Les études des interactions entre le produit et l’utilisateur. Elles
s’appuient sur des protocoles d’évaluation du produit par le consommateur
ciblé (critère de choix, protocole d’achat ou d’utilisation, analyse
sémantique, analyse des préférences).

Nous avons identifié douze méthodes d’évaluation qui permettent de


mener les trois types d’études précédentes et qui sont toutes utilisées dès les
phases préliminaires du processus de conception : trois méthodes de type A
(évaluation du produit), trois méthodes de type B (évaluation de la cible
marketing) et six méthodes de type C (interaction du produit et de son
utilisateur).

Catégorisation Méthodes
Type A : Analyse Fonctionnelle (externe et interne)
Evaluation du produit Analyses des phénomènes physiques
Analyses des harmonies chromatiques
Type B : Recueil des imaginaires clients et méthodes d’évaluation
Evaluation de la cible marketing
marketing Analyse conjointe
Evaluation des attributs du produit de D. Bachelet
Type C : Evaluation sémiotique et analyses sémantiques de l’offre ;
Évaluation de l’interaction Analyses de l’usage
produit/utilisateur Conception à l’Ecoute du Marché
Évaluation micro-psychologique
Analyses sensorielles
Chaînage cognitif moyens–fins et chaînage Valeur–
Fonctions–Attribut

Tableau 1.1. Typologie des différentes approches en évaluation subjective

1.2.2. Les méthodes

L’objet de ce chapitre est de présenter brièvement chacune de ces


méthodes. Quatre d’entre elles seront présentées plus en détail en
section 1.2.3 et illustrées dans les chapitres suivants (2 à 5) à l’aide de cas
Méthodes d’évaluation sensorielle et sémantique 31

d’application concrets que les auteurs ont eu l’occasion d’expérimenter. Il


s’agit de :
– l’analyse des phénomènes physiques (type A),
– l’analyse de l’usage (type C),
– l’analyse sémantique (type C),
– l’analyse sensorielle (type C).

1.2.2.1. L’analyse fonctionnelle


L’analyse fonctionnelle permet de définir et caractériser les fonctions que
le futur produit devra rendre sous la forme d’un cahier des charges
fonctionnel. Cette méthode permet d’anticiper le cycle de vie du produit. La
détermination de cas d’utilisation puis des éléments de l’environnement en
interaction avec le système étudié permet d’en préciser les limites ainsi que
les performances. Les fonctions de service (interaction entre le système et les
éléments extérieurs de son environnement) sont identifiées par un travail de
groupe, puis caractérisées et hiérarchisées à l’aide de critères quantifiables
(grandeur, échelle de mesure, niveau, intervalle d’acceptation et flexibilité –
caractère négociable du critère). L’analyse fonctionnelle est une approche
très utile en conception de produits ou services. En effet elle crée un espace
de réflexion intermédiaire entre la description marketing du besoin et la
description technologique des solutions. Le fait de formaliser et de
développer le besoin en fonction de services sans imposer de solutions
techniques a priori, ouvre la voie à des propositions potentiellement très
créatives.

1.2.2.2. Recueil des imaginaires clients et méthodes d’évaluation marketing


Les méthodes de recueil des imaginaires clients et les méthodes
d’évaluation marketing regroupent plusieurs dizaines de méthodes. Suivant
les objectifs de l’évaluation – comprendre les besoins et désirs des
utilisateurs, tester de façon opérationnelle de nouvelles technologies ou
inspirer les utilisateurs et les chercheurs sur les usages de ces technologies –,
le stade de formalisation de l’idée ou du produit en développement,
différents types d’utilisateurs sont sollicités : les concepteurs eux-mêmes,
des acteurs-comédiens, des prescripteurs (trendsetteurs), des utilisateur à la
recherche d’innovations (prosumers), des utilisateurs experts (leadusers),
des panels internes à l’entreprise ou des panels externes [MUS 06]. Les
méthodes permettent de s’adapter à ces différents contextes. Enfin certaines
méthodes sont plus intuitives (trendsetters, intuition technico-scientifique) et
32 La conception industrielle de produits 3

d’autres plus analytiques (études quantitatives, analyse stratégique),


certaines sont plus adaptées à des innovation tirées par le marché (études
qualitatives et expérimentation terrain) et d’autre plus portées par la
technologie (groupe d’experts techniques ou groupe delphi).

1.2.2.3. L’analyse conjointe


L’analyse conjointe, très utilisée en marketing, est une technique
originale qui permet de prédire la valeur ou l’attrait de différents designs sur
le marché. Il s’agit d’une méthode d’enquête comprenant une phase de
recueil basée sur les plans d’expérience, une phase d’analyse des données et
une phase de simulation. Une technique particulière de régressions multiples
est ensuite utilisée pour prédire un Y ordinal à partir de Xj qualitatifs. Cette
analyse s’appuie sur différentes mesures : préférences des consommateurs,
acceptabilité des produits, similarité ou différences perçues en fonction des
différents choix possibles. Le nom « analyse conjointe » induit l’analyse
d’effets conjoints de multiples attributs de produits sur le choix final. Le
consommateur arbitrera entre des qualités pas toujours compatibles en optant
pour un modèle de choix compensatoire appelé modèle individuel d’utilité
additive. La simulation des choix permet aux concepteurs d’explorer
l’impact des différentes décisions relatives au design sur les ventes. Cet outil
très pertinent pour développer de nouveaux produits et services est présenté
plus amplement dans la troisième partie de cet ouvrage au chapitre 17.

1.2.2.4. La conception à l’écoute du marché


Cette méthode, basée sur l'écoute du client et du marché, permet
d'identifier, de valider, de hiérarchiser et de qualifier les attentes des clients
vis-à-vis de l'avenir d'un produit. Elle permet de recueillir les attentes d’un
panel ciblé et comprendre les critères de jugement pour améliorer une
gamme de produit. La CEM repose sur les six phases suivantes :
– interview de clients dans le contexte d’utilisation du produit/service,
– synthèse des relevés d’interviews pour construire les familles d’attentes
principales,
– conception d’un questionnaire de vérification de la satisfaction d’autres
clients non interviewés,
– classement en attentes latentes, explicites ou implicites,
– formalisation de la stratégie produit/service, élaboration d’indicateurs
de mesure et préparation des principes de solution,
– formulation du concept produit/service et élaboration de solutions.
Méthodes d’évaluation sensorielle et sémantique 33

Les limites de cette approche résident dans les insuffisances de précision


engendrées par les perceptions des personnes. Il s’agit d’une méthode
qualitative déductive, plutôt subjective et lourde à déployer.

1.2.2.5. L’évaluation des attributs du produit


L’espace conceptuel peut être vu comme un système d’attributs. On
appelle attribut du système chacune de ses dimensions plus ou moins
concrètes. Un modèle intermédiaire de produit est doté d’attributs sur la base
desquels le consommateur pourra évaluer de manière plus ou moins
consciente ledit modèle. Plus l’utilité réelle d’un produit est grande, plus
l’utilisateur se représente ses besoins de manière subjective. D. Bachelet a
montré combien l'évaluation des attributs d’un produit est délicate, sachant
que les interviewés ne connaissent pas toujours leur propre hiérarchie
d'attente, qu'ils rationalisent parfois leurs réponses en éliminant les facteurs
subjectifs ou inconscients et qu'ils ne répondent pas forcément sur le choix
réel mais sur l'importance en soi. La mesure des attributs permettra aussi de
se positionner vis-à-vis de la concurrence et de faciliter la prise de décision.
A titre d’exemple, D. Bachelet propose les attributs suivants pour
caractériser le véhicule automobile : image de marque, aérodynamique,
esthétique, caractère, sécurité active, sécurité passive, consommation,
confort, longévité, prix d'achat, vitesse, fiabilité. [BAC 88]

1.2.2.6. L’analyse des harmonies chromatiques


Jacques Fillacier explique le principe fondamental de l’harmonie par la
loi des complémentaires psychophysiologiques [FIL 86]. Les principales
harmonies de couleurs proviennent de l’action simultanée de deux ou
plusieurs couleurs dont la synthèse donne un gris neutre. Pour Johannes
Itten, sont en symétrie de force, toutes les paires de couleurs
complémentaires et les accords triples de tons qui, sur le cercle chromatique
psychométrique, se trouvent aux extrémités d’un triangle équilatéral ou
isocèle, d’un carré ou d’un rectangle, et qui répondent à un rapport
quantitatif dicté par le rapport qualitatif des couleurs [CHR 98]. Tous les
autres mélanges sont de nature expressive.

L’utilisation des accords harmonieux permet au coloriste d’évaluer


consciemment les effets visuels recherchés. L’harmonie est indubitablement
synonyme d’unité. Quel que soit l’accord harmonieux, il est essentiel de
respecter les rapports qualitatifs et quantitatifs, indispensables à l’obtention
d’une symétrie des forces chromatiques. Aujourd’hui seule l’étude des
34 La conception industrielle de produits 3

harmonies musicales a également permis de formaliser des règles de


composition qui permettent une évaluation a priori des solutions.

1.2.2.7. L’évaluation micro-psychologique


A. Moles a souligné l’importance de la dimension usage dans la
représentation du produit que se fait le consommateur [MOL 91]. L’objet de
la micro-psychologie est d’analyser aussi rationnellement que possible le jeu
des interactions, des valeurs, des choix, des micro-décisions, qui se trouvent
impliqués dans une action globale donnée ou dans un flux de comportements
(Harris). L’analyse micro-psychologique selon A. Moles permet de relier
l’observation de l’usage à des coûts spécifiques (financier, temporel,
énergétique, etc.). Selon cette idée, l’usage est décomposé en micro-actes
d’utilisation dans un scénario global. Ainsi le coût généralisé fait entrer à
côté du prix, les consommations de temps, d’énergie et de franchissement de
barrières psychologiques inhérent à chaque individu dans un environnement
donné. Diverses applications ont été menées par A. Moles, en particulier
dans les domaines du transport et dans ceux de la conception de produits.
Celles-ci montrent que la valeur d’un objet, d’un service ou d’un produit,
doit aussi être analysée par le psychologue d’une façon qui conduira à des
résultats différents dans l’échelonnement des valeurs des produits, des actes
et des services, grâce à une description des comportements plus fine et plus
adéquate que celles qui nous ont été proposée par les économistes.

1.2.2.8. Le chaînage cognitif moyens-fins et le chaînage valeurs-fonctions-


attributs
La méthode du chaînage cognitif des moyens-fins [VAL 94] permet de
mettre en évidence la manière dont s’exerce l’influence des valeurs sur les
comportements de consommation. Cette méthode se situe au croisement de
la psychologie (individu) et de la sociologie (groupe). La méthode du
chaînage cognitif moyens-fins envisage la relation valeur-attribut de l’espace
conceptuel au travers d’une suite d’enchaînements cognitifs hiérarchisés en
niveaux d’abstraction croissante. Les valeurs peuvent être classées en deux
grandes catégories : les valeurs instrumentales (modes de comportement
spécifiques, tels que le courage, l’honnêteté, la déférence, le romantisme) ou
terminales (buts de l’existence à atteindre en respectant les valeurs
instrumentales, tels que l’épanouissement personnel ou l’hédonisme). Le
chaînage cognitif est le résultat de l’analyse des données issues des
verbalisations d’une population d’individus décrivant une population de
produits. Le chaînage valeurs-fonctions-attributs est une construction du
Méthodes d’évaluation sensorielle et sémantique 35

concepteur qui relie des valeurs des utilisateurs ciblés, des fonctions
sémantiques et les attributs du produit conçu.

1.2.3. Méthodes ayant fait l’objet d’expérimentations présentées dans cet


ouvrage

Les quatre méthodes présentées ci-dessous sont développées et illustrées


à l’aide de cas d’application industrielle dans les chapitres suivants. Il s’agit
de méthodes qui sont utilisées de plus en plus couramment en industrie et qui
pour la plupart ont fait l’objet d’adaptations originales au contexte de la
conception de nouveaux produits de la part de notre équipe d’enseignants
chercheurs.

1.2.3.1. L’analyse de l’usage


Au cours des différentes situations d’utilisation de son produit (situation
d’achat, usage, rangement, transport, entretien), l’utilisateur perçoit le monde
par ses sens à travers une multitude de stimuli, visuels, sonores, olfactifs,
tactiles ou encore gustatifs qui sont autant d’informations qui contribuent à
l’évaluation de son environnement (chapitre 3).

L’ergonomie peut apporter de nouvelles connaissances sur l'utilisation de


produits et les contextes d’usage afin d’améliorer le confort, la sécurité, la
satisfaction des utilisateurs et l’efficacité du système. Pour cela, l’analyse
d’activités ainsi que les outils associés permet à l’ergonome d’apporter sa
contribution sur l’usage au sein du processus de conception. L’usage est
perçu aujourd'hui comme une notion multidisciplinaire à laquelle
l’ergonomie, si elle doit fortement y contribuer, ne peut répondre seule. En
effet, en raison de son caractère interdisciplinaire (design, ergonomie,
marketing, sociologie, technologie, etc.), la définition commune des
multiples facettes de l’usage doit constituer la base de la nécessaire
coopération, en particulier pour l’intégration de ces données d’usage, tout au
long du processus d’innovation et d’évaluation amont.

Pour connaître le comportement et la fréquence d’utilisation de chacun


des cas prévus, il est nécessaire d’observer les utilisateurs en situation
(chapitre 2).
36 La conception industrielle de produits 3

Dans le cas de l’évaluation muti-sensorielle d’un téléphone mobile,


suivant la distance de l’utilisateur à son téléphone, différents sens
contribuent à l’appréciation de ce produit :
– à plusieurs mètres, l’évaluation peut être visuelle (forme, couleur) et
auditive (sonnerie) ;
– à un mètre, l’évaluation est à nouveau visuelle (détails) et
éventuellement olfactive ;
– au contact, l’évaluation est tactile (toucher, texture, kinesthésie, poids,
efforts de manipulation) et à nouveau auditive (son, bruit de feet-back).

C’est par une étude précise des usages d’un produit que le concepteur
pourra déterminer les fonctions auxquelles devra répondre le produit et les
différents sens mobilisés pour évaluer la pertinence des attributs retenus pour
satisfaire ces fonctions. Dans le cas de l’analyse de l’usage, ces études sont
principalement des observations in situ d’utilisation de produits existants, de
maquettes ou de prototypes.

1.2.3.2. L’analyse sémantique


L’analyse sémantique consiste à évaluer statistiquement les impressions
subjectives que nous ressentons devant un objet ou une image. L’analyse
sémantique repose sur la construction de différentiels sémantiques mis au
point par Osgood à l’université de l’Illinois en 1967. Le différentiel
sémantique est un outil de mesure des valeurs connotatives des objets ou des
images (chapitre 3).

Après avoir réuni un corpus de produits à évaluer et un panel


d’évaluateurs, le chercheur construit une liste de qualificatifs, regroupés par
paires d’items antagonistes disposées sur une même ligne et séparées par un
nombre impair de cases – ou classes (cinq ou sept, en général). Le sujet
positionne son jugement sur chacune des lignes par un point qu’il situe entre
ces deux extrêmes. Le point central constitue l’élément de neutralité. Dans le
but de ne pas influencer le sujet, les qualificatifs sont placés de manière
aléatoire pour ne pas avoir d’un côté les aspects positifs et de l’autre les
aspects négatifs. Une fois l’ensemble des produits testés par l’ensemble du
panel, les résultats sont traités statistiquement – au cours d’analyses en
composantes principales (ACP, voir la section 3.4.2 et le chapitre 4) ou
d’analyses factorielles des correspondances (AFC) –, pour déterminer quels
produits sont corrélés avec quels qualificatifs (alors appelés « critères
sémantiques »). Il reste alors au chercheur à interpréter les résultats en
Méthodes d’évaluation sensorielle et sémantique 37

identifiant quels attributs du produit (forme, couleur, texture, fonction,


technologie, usage) sont plus particulièrement corrélés avec certains critères
sémantiques pertinents pour la conception du futur produit (figures 3.3
et 3.4).

Par exemple, dans le cas d’un téléphone mobile la cinématique


d’ouverture a été corrélée avec des perceptions :
– le clapet pour un téléphone pratique,
– le tiroir pour une perception high-tech et astucieux,
– l’ouverture rotative pour un aspect innovant.

1.2.3.3. L’analyse sensorielle


L’analyse sensorielle consiste à étudier les caractéristiques sensorielles
des produits en distinguant d’une part les préférences et d’autre part la
caractérisation des attributs sensoriels. La détermination des préférences est
étudiée en confrontant les produits avec un panel de consommateurs. Leur
caractérisation sensorielle est réalisée par un panel d’experts entraînés à
distinguer puis évaluer les sensations suscitées par le toucher, la vue, le goût
ou l’odeur du produit. En effet, contrairement à la forme, la couleur ou les
sonorités du produit qui peuvent être mesurées par des instruments calibrés,
il n’existe pas aujourd’hui d’appareil de mesure fiable pouvant caractériser
un toucher, une odeur ou un goût. Aussi chaque sens est étudié
indépendamment et chacun est décrit par un ensemble de descripteurs. Ainsi
pour l’évaluation du goût, des senteurs ou du toucher, des experts sont
entraînés pendant plusieurs mois pour reconnaître les descripteurs de la
sensation et pour produire la même évaluation quand ils ressentent des
stimulations identiques – afin d’assurer une bonne répétabilité de leurs
mesures. Leurs mesures sont qualifiées de mesures subjectives objectivées
(chapitre 4).

Après une analyse statistique distincte des deux espaces (celui des
préférences et celui des descripteurs), ils sont comparés afin de déterminer
quelles caractéristiques sensorielles sont plébiscitées ou rejetées par le panel
de consommateurs.

Dans le cas d’étude d’un ensemble de téléphones portables à clapet, il a été


possible de corréler les sons, les angles et les vitesses de fermeture du clapet
qui sont les plus appréciés par un ensemble d’utilisateurs (tableau 3.7).
38 La conception industrielle de produits 3

Cette méthode mobilise plusieurs compétences et métiers :


– les clients qui expriment leurs préférences (données subjectives) ;
– les responsables marketing qui organisent les tests et recueillent les
préférences (données subjectives) ;
– les experts qui caractérisent les descripteurs qui structurent les
préférences des clients (données subjectives objectivées) ;
– les ingénieurs qui mesurent les données objectives qui structurent les
préférences des clients ;
– les designers qui synthétisent les données dans un cahier des charges et
qui proposent de nouvelles solutions de conception.

1.2.3.4. L’analyse des phénomènes physiques


L’analyse des phénomènes physiques (APP) a pour objectif d’intégrer les
perceptions sensorielles des utilisateurs (goût, odorat, ouïe, vue et
somesthésie–sensibilité du corps au touché, à la pression, à la chaleur ou à la
douleur) dans le cahier des charges fonctionnel et les modèles de
prédimensionnement des produits (chapitre 5).

L’analyse fonctionnelle ainsi que la notion de fonction sont aujourd’hui


très bien développées et intégrées dans les bureaux d’étude des entreprises.
Cette approche propose plusieurs outils complémentaires à ceux de l’analyse
fonctionnelle pour relier les flux d’énergie liés aux sensations perçues par les
utilisateurs des produits et ceux qui sont générés, transmis ou transformés
par les systèmes étudiés.

Le bloc diagramme fonctionnel (BDF) de l’analyse fonctionnelle


traditionnelle permet de représenter le système à la fois comme un ensemble
de composants en interaction et comme un ensemble de fonctions portées par
des flux d’énergie (figures 5.7 et 5.16). C’est cet outil qui est utilisé au cours
d’une APP pour relier les interactions sensorielles de l’utilisateur avec les
composants et énergies du système.

Pour identifier les caractéristiques sensorielles, leurs descripteurs et les


moments significatifs du cycle de vie du produit, le concepteur mobilise des
outils de l’analyse sensorielle (voir section 1.2.3). Afin d’optimiser la
transmission des énergies et le dimensionnement des composants, il mobilise
les lois de conservation de l’énergie, les lois de comportement (masse,
énergie, quantité de mouvement, moment cinétique, etc.) ainsi que les lois
issues de la théorie TRIZ [SAV 00] (figure 5.5).
Méthodes d’évaluation sensorielle et sémantique 39

Par exemple dans le cas du dimensionnement des composants de


l’articulation d’un téléphone à clapet, l’analyse sensorielle a permis de
déterminer les critères fonctionnels (angles, efforts et vitesses) préférés des
utilisateurs permettant d’obtenir une fermeture robuste, précise et
confortable. L’APP a permis de déterminer les dimensions des composants
(came, doigt, ressort) qui permettent dans les situations d’utilisation de la
fermeture du clapet (déverrouillage, conduite et échappement) de respecter
les critères fonctionnels du cahier des charges (exercice d’application
section 5.9).

1.2.4. Etudes comparées

Ces quatre méthodes d’évaluation peuvent être mises en œuvre au cours


d’un même projet ; elles sont alors complémentaires. Mais elles peuvent
aussi être mises en perspective et comparées afin de choisir laquelle est la
plus adaptée aux objectifs et aux contraintes du projet de conception.

Les critères de comparaison des méthodes d’évaluation sont nombreux :


– certaines (de type B) évaluent plutôt la faisabilité commerciale
(marketing pull) tandis que d’autres (de type A) évaluent plutôt la faisabilité
technique (technologie push) ;
– des méthodes manipulent des données objectives alors que d’autres sont
adaptées à l’étude de données subjectives ;
– certaines peuvent être mises en œuvre dès les phases préliminaires du
processus de conception ou plutôt en aval, pour évaluer le prototype final ;
– plusieurs nécessitent des compétences interdisciplinaires alors que
d’autres sont spécifiques à un métier ;
– elles sont adaptées à l’évaluation du produit au cours de sa conception
ou à l’étude de la concurrence et des produits existants ;
– elles mobilisent des évaluateurs novices ou experts ; des panels internes
ou externes à l’entreprise ;
– elles renseignent sur les critères de choix du consommateur, de
l’utilisateur, du concepteur ou du décideur ;
– elles évaluent les interactions sensorielles ou cognitives ; les
interactions physiologiques (caractérisation sensorielle) ou psychologiques
(préférences hédoniques) ;
40 La conception industrielle de produits 3

– elles sont adaptées à l’évaluation de représentations physiques ou


numériques (virtuelles) ;
– elles se basent sur le raisonnement abductif, déductif ou inductif ;
– elles intègrent les objectifs, les intentions et les contraintes du
concepteur (CdC), etc.

Délais de
Métier/
Méthodes/ Marketing pull/ Objectives/ Qualitatives/ formation/
interdisci-
critères techno push subjectives quantitatives de mise en
plinaire
oeuvre
Au global de type
Objective Interdisci-
C ; type A
Analyse (caractérisation) plinaire 6 mois /
(caractérisation) Quantitative
sensorielle intersubjective (ingénierie + 2 semaines
type B
(préférence) design)
(préférence)
Interdisci-
plinaire
Analyse 1 mois /
Type C Intersubjective Qualitative (SHS ou
sémantique 2 semaines
marketing +
design)
Analyse des
Quantitative et Métier 2 mois /
phénomènes Type A Objective
qualitative (ingénierie) 2 semaines
physiques
Objective
Métier
Analyse de (mesure) Quantitative et 2 mois /
Type C (ergonomie
l’usage intersubjective qualitative 2 mois
ou design)
(compréhension)

Tableau 1.2. Comparaison de quatre méthodes d’évaluation des attributs sensoriels,


sémantiques et de l’usage des produits utilisées au cours des phases préliminaires
du processus de conception

Les quatre méthodes évoquées sont complémentaires. Cependant au cours


d’un projet de conception, les ressources étant limitées, il est rare que le chef
de projet ait les moyens de toutes les mettre en œuvre. Parmi l’ensemble des
critères énoncés précédemment, nous en avons retenu cinq particulièrement
discriminants qui permettent de les comparer (tableau 1.2) :
– le critère push/pull permet de valoriser la nature de l’innovation (plutôt
commerciale ou plutôt technologique) ;
– les critères (objectives/subjectives) et (qualitatives/quantitatives)
permettent d’adapter la méthode à la nature des données disponibles ou
souhaitées ;
Méthodes d’évaluation sensorielle et sémantique 41

– le critère métier permet d’adapter le choix de la méthode aux


compétences disponibles dans l’équipe de conception ;
– le critère de délai permet d’anticiper les durées des formations et de la
mise en œuvre des méthodes. L’analyse sensorielle, par exemple, nécessite
la formation d’un panel d’experts qui, s’il n’existe pas déjà, prend plusieurs
mois alors que l’appropriation des outils théoriques et pratiques de l’analyse
sémantique est très rapide.

Les enjeux de l’évaluation en conception sont nombreux et nous en avons


listés quelques-uns. La qualité de la conception des attributs sensoriels,
sémantiques et de l’usage des produits est un enjeu unanimement reconnu de
différenciation entre concurrents et d’appréciation des produits par les
utilisateurs. Les méthodes d’évaluation de ces attributs sont nombreuses.
Nos recherches se proposent de les formaliser et de les comparer afin d’aider
les chefs de projet dans la programmation de leur démarche de conception,
d’aider à mieux comprendre la construction de nouvelles connaissances au
cours des projets et d’apprécier la contribution des designers, ergonomes et
ingénieurs au cours des phases préliminaires du processus de conception –
phases au cours desquelles les innovations sont initiées et la valeur du
produit en majeur partie définie.
CHAPITRE 2

Analyse de l’usage

2.1. Introduction

L’évolution des enjeux économiques et des impératifs de production


conduit à donner une place stratégique au processus de conception et à
redéfinir la division du travail. Cette transformation des enjeux
industriels et commerciaux (multiplication de l’offre dans une économie
de variété complexification et intégration accrue des produits, réduction
des délais de mise sur le marché, etc.) a favorisé l’émergence de l’idée de
conception simultanée ou intégrée, exigeant la contribution simultanée de
différents métiers afin de viser à la prise en compte dès l’origine, de
l’ensemble du cycle de vie du produit, depuis sa production, son usage et
sa maintenance jusqu'à son recyclage [TIC 96].

Cette nouvelle donne des processus de conception, n’est pas sans


conséquence sur l’intégration des facteurs humains, cognitifs et sociaux
dans la conception des produits. Alors que l’ergonomie s’est positionnée
autour du mouvement anglo-saxon dit de conception centrée utilisateur
(User Centred Design, ISO 13407), de nouvelles pratiques
complémentaires émergent sur le modèle de conception intégrée
permettant de sortir des modèles anciens de la conception où les produits
sont pilotés par la technique et le marché. On parle alors de conception
participative (faisant intervenir des représentants des utilisateurs et des

Chapitre rédigé par Stéphanie BUISINE et Benoît ROUSSEL.


44 La conception industrielle de produits 3

utilisateurs) qui formule le constat que de multiples acteurs en liens avec


l’usager doivent confronter leurs points de vue avant d’intégrer sa parole
en conception. Si ces deux courants (l’un centré sur la technique, l’autre
centré sur les utilisateurs) divergent parce qu’opposés dans leurs
domaines de recherche respectifs, ils sont liés par le même constat de la
complexité des systèmes réels et donc de l'impossibilité, au cours du
processus de conception, de se satisfaire d’une seule vision. Alors que
dans l’une il faut confronter les points de vue liés aux problématiques
techniques et économiques de la conception pour concevoir, dans l’autre
il faut confronter les différentes lectures des systèmes sociotechniques et
leurs liens avec l’usager pour alimenter et orienter la conception.
Parallèlement, alors que l’une tente d’intégrer les métiers grâce à la
coopération dans le but d’optimiser le processus de conception et de
favoriser l’innovation, l’autre tente d’intégrer la conception dans le but
de proposer une réponse possible cohérente à la complexité des systèmes
réels où interagissent des hommes. Mais, outre le fait que chacun de ces
courants se positionne sur la problématique de l’interdisciplinarité, ils
semblent s’unir aujourd’hui vers la thématique bien plus large qu’est
l’innovation. Si l’innovation ne peut émerger que par la rencontre d’une
idée et d’un marché [GIG 98, LAU 02], elle doit, pour réussir, intégrer
l’ensemble des complexités qui concourent à sa réalisation : la
complexité des usages qui créent ces marchés (de l’utilisation du produit
à son usage socioéconomique en passant par ses pratiques dans les
activités pour lesquelles le produit est destiné), la complexité des
processus de créativité qui concourent à générer l’idée ainsi que la
complexité des processus de réalisation et de conception physique du
produit.

2.2. L’usage, une thématique levier pour innover en intégrant les


utilisateurs et l’industriel dans l’acte de conception

L’usage, perçu aujourd’hui comme une notion multidisciplinaire, a


pour objet la prise en compte, de manière exhaustive, de l’utilisateur dans
le processus de conception de produit. Nous pensons que cette
thématique peut permettre de réunir les utilisateurs, les industriels et plus
particulièrement les concepteurs dans l’acte d’innovation.
Analyse de l’usage 45

2.2.1. Qu’est-ce que l’usage ?

Il n’existe pas aujourd’hui une définition de l’usage mais plusieurs.


L’usage est défini comme une action, le fait de se servir de quelque chose. Il
s’agit aussi de la fonction, la destination, l’emploi que l’on peut en faire.
Etudier l’usage revient donc à observer, interpréter les actions, l’emploi réel
du produit en question pour en comprendre le fonctionnement perçu par
l’utilisateur. Cette notion d’usage est dans ce sens à rapprocher de celle
d’utilisabilité et peut être mise en évidence par l’analyse ergonomique en
situation réelle, ou réaliste comme nous l’avons vu dans les sections
précédentes.

Mais la signification de l’usage ne s’arrête pas à cette dimension de


l’action et de l’emploi, elle concerne aussi une dimension plus générale que
sont les pratiques, les us et coutumes. Il s’agit donc de l’ensemble des
pratiques sociales en lien avec l’objet technique. L’usage concerne aussi
l’habitude, c’est-à-dire d’une manière plus globale, l’ensemble des pratiques
qu’une personne peut élaborer pour et dans le fait de se servir de quelque
chose et dans un cadre de l’action plus global. En somme, l’usage apparaît
également comme étant le fruit de l’expérience et des croyances, aussi bien
au niveau individuel (habitudes) que collectifs (coutumes) dans d’autres
cadres de l’action que ceux qui sont immédiatement donnés dans la situation
d’observation [MAL 96]. Le terme « usage » rassemble de nombreuses
significations. Mais, elles sont largement orientées vers un même
paradigme : l’analyse des pratiques des utilisateurs.

Afin de rendre compréhensible cette notion multidisciplinaire de l’usage,


nous proposons de discuter maintenant de l’ergonomie, discipline ne
pouvant répondre seule à cette notion, mais qui y contribue fortement en
conception.

Nous allons voir comment l’ergonomie peut contribuer à la conception,


notamment au travers des analyses et évaluations de l’activité des utilisateurs.

2.3. L'ergonomie et ses notions essentielles

2.3.1. Définition

« L’ergonomie (ou l’étude des facteurs humains) est la discipline


scientifique qui vise la compréhension fondamentale des interactions
46 La conception industrielle de produits 3

entre les êtres humains et les autres composantes d’un système, et la mise
en œuvre dans la conception de théories, de principes, de méthodes et de
données pertinentes afin d'améliorer le bien-être des hommes et
l'efficacité globale des systèmes. Les ergonomes contribuent à la
conception et à l’évaluation des tâches, du travail, des produits, des
environnements et des systèmes en vue de les rendre compatibles avec les
besoins, les compétences et les limites des personnes ». Société
d’ergonomie de langue française et International Ergonomic Association
[SEL 06].

Son nom provenant du grec ergon (travail) et nomos (lois),


l’ergonomie est une discipline qui utilise une approche systémique dans
l’étude de tous les aspects de l’activité humaine.

Les démarches ergonomiques reposent sur des techniques d’analyse de


la situation et de l’activité et utilisent les connaissances produites, entre
autres, par les sciences humaines et sociales. Elles tentent de considérer
l’ensemble des dimensions du système. Leur apport potentiel concerne
aussi bien les composantes sociale et humaine du travail que le domaine
de la conception technique et organisationnelle.

2.3.2. La démarche d'ergonomie lors d'intervention en entreprise

L'intervention ergonomique fait généralement suite à une demande de


la part d'une instance de l'entreprise. Dans le cas d’une demande
d’intervention en conception de produits, cette instance peut être, par
exemple, le service recherche et développement, le service innovation
amont, le service bureau des méthodes ou autre. Dans le cas d’une
demande d’intervention sur des postes de travail, conditions de travail, ou
organisation, elle peut, cette fois, être une instance de la direction, du
service ressources humaines, du service production, du comité
d’entreprise (CE), du comité hygiène sécurité et conditions de travail
(CHSCT) ou autre encore. Un travail d'analyse et de reformulation de la
demande est effectué. Il représente un aspect essentiel de la démarche
ergonomique. Après avoir identifié les principaux enjeux présents
derrière la demande initiale, une proposition d'intervention est formulée
par l'ergonome auprès de l'instance demandeuse. Avant d'analyser en
détail une ou plusieurs situations, il cherche à comprendre le
fonctionnement du système global dans lequel s’insère le produit à
Analyse de l’usage 47

concevoir ou de l'entreprise afin de prendre en compte le contexte, les


évolutions prévisibles, les marges de manœuvre et de mieux évaluer les
difficultés à appréhender. Ces recherches lui permettront de formuler des
hypothèses et de choisir une ou des situations qu'il analyse en détail pour
dégager les éléments de réponse aux questions soulevées.

Dans le cas d’étude en production ou organisation, il cherchera les


situations de références (entreprise Y où l’organisation future voulant
être implantée dans l’entreprise X existe déjà, ou bien où une machine
proche de la future à concevoir est en exploitation, etc.) [DAN 91, DAN
92, MAL 94]. Ces situations peuvent être identifiées grâce à leurs
caractéristiques techniques, environnementales, aux caractéristiques de la
population utilisatrice ainsi qu'à celles des caractéristiques du projet et
des orientations définies. L’objectif est d'analyser l'activité actuelle
développée durant ces situations afin d’alimenter l’étude. Lorsqu'il s'agit
de la conception de produit, il est nécessaire de compléter cette notion de
situation de référence par la notion de produits parent/enfant. Pour la
conception d’un nouveau produit que nous appellerons « produit enfant »,
il est indispensable d'identifier les produits existants actuellement (nous
les nommerons « produits parents ») ainsi que les caractéristiques et les
situations d'utilisation se rapprochant le plus, du point de vue utilisateur,
des situations d'utilisation futures du produit enfant.

L'ergonome procède alors à des observations ouvertes. Il cherche à


comprendre le processus technique et les tâches confiées aux opérateurs
et/ou utilisateurs, mais aussi les stratégies mises en œuvre par ces
derniers, dans ces situations de références.

Il peut, après ces observations ouvertes, commencer à établir des liens


entre les contraintes de la situation, l'activité déployée par les
opérateurs/utilisateurs, les conséquences de cette activité sur la santé, sur
l’efficacité du produit, du système, de l’entreprise, de la production, etc.
L'ergonome pourra alors formuler un prédiagnostic. Un plan
d'observation sera ensuite mis en place pour vérifier, enrichir et
démontrer les hypothèses formulées. A partir de ces observations, un
diagnostic local (diagnostic sur le produit, sur les postes de travail
observés) pourra être formulé pouvant être suivi d'un diagnostic général
comprenant des éléments d’évaluation, permettant de traiter les
problèmes de façon plus globale.
48 La conception industrielle de produits 3

A partir de son diagnostic, l'ergonome pourra participer aux orientations


de solutions et évaluer ces dernières tout au long de leur processus de
conception, de réalisation et d’implantation. Les éléments constituant le
diagnostic portant sur une situation, sont donc des éléments essentiels de
l'analyse effectuée par l'ergonome et constitue un apport fort de cet acteur au
processus conception/réalisation/implantation. Une schématisation de
l’intervention de l’ergonome est présentée en figure 2.1.

Figure 2.1. Schématisation de l’intervention ergonomique

Une notion essentielle à l’intervention ergonomique est alors « l’activité


réelle ». Son analyse sera un des piliers des apports de l’ergonome au groupe
projet. Nous allons donc détailler ces éléments forts dans les sections
suivantes.

2.3.3. Activités réelles

L'ergonomie montre que les connaissances générales sur le


fonctionnement de l'homme sont nécessaires mais non suffisantes pour
comprendre comment il agit dans une situation particulière. Transformer une
situation ne peut donc consister en une application a priori de ces
Analyse de l’usage 49

connaissances. Celles-ci doivent être confrontées à la spécificité de chaque


situation. La compréhension de l'activité réelle se trouve être le véritable
fondement de toute action ergonomique.

L’analyse de l’activité devrait (doit) être considérée comme le maillon


central fondant le développement d’un projet. Les connaissances produites et
leur traduction en principes de solutions contribuent en effet à mettre en
meilleure adéquation les fonctionnalités du produit, de l’outil de production,
etc., aux critères de confort, de sécurité, d’efficacité et de satisfaction des
utilisateurs. Les solutions proposées permettent par ailleurs d’escompter une
réduction des coûts liés aux dysfonctionnements et à la non-qualité. Elles
conditionnent ainsi directement la possibilité d’accroître la valeur ajoutée
des produits.

L'approche la plus immédiate de l'activité est l'observation : l'ergonome


se rend sur le site des situations réelles (par exemple entreprise, chaîne de
production, intérieur du véhicule dans le cas d’un produit pour l’automobile)
et analyse les façons dont procèdent les personnes, les actions réalisées, les
informations utilisées. De plus, l'ergonome suscite des explications
(verbalisations), au cours de l'activité si possible, sinon après. Ces
commentaires aident à comprendre les objectifs des tâches, du travail, les
raisonnements mis en œuvre et leurs causes.

Dans un souci de représentativité de ses résultats, lors de l’identification


des situations réelles à observer, l’ergonome sera, entre autre, très attentif à
l’intégration de la variabilité. Il étudie cette variabilité, non pas pour la
supprimer mais pour comprendre comment les utilisateurs la gèrent et les
conséquences qu'elle entraîne sur l'activité développée et les risques
d'atteinte à la santé qu'elle peut engendrer. Les variabilités à explorer sont
celles liées aux différentes situations existantes, aux différences entre les
individus (variabilité inter-individuelle) ainsi que celles existant chez un
même individu (variabilité intra-individuelle).

2.3.4. Méthodologie d’observation et d’analyse des activités

2.3.4.1. Le cadre d’analyse


Lors de l’analyse, l’activité permettra de révéler :
– le comportement directement observable des utilisateurs/opérateurs,
– les contraintes auxquelles ces utilisateurs/opérateurs sont soumis,
50 La conception industrielle de produits 3

– les significations qu’elle représente pour l’opérateur (support d’actions,


de communications) selon les différents contextes où le travail est effectué.

Ces « regards d’analyse à porter sur l’activité » peuvent se combiner et


définir ainsi deux types d’approches :
– une approche à dominante extrinsèque,
– une approche à dominante intrinsèque.

L’approche à dominante extrinsèque est une approche classique en


ergonomie. Elle peut se traduire par différents indicateurs, par exemple,
l’activité gestuelle, posturale, les déplacements, les actions et leur
enchaînement, les modes opératoires, les régulations d’activité, les prises
d’informations (direction des regards, évolution de la distance œil – tâche),
les communications formelles et informelles entre opérateurs.

Elle tente de mettre en évidence les contraintes d’activité et les risques


d’atteinte à la santé et relève d’un point de vue « hygiéniste ». L’approche à
dominante intrinsèque concerne le cours d’action [THE 97]. Elle permet
d’analyser – parce qu’elles sont « commentables » – les actions (y compris
les communications) qui sont significatives pour l’opérateur ou l’utilisateur.
Elle se réfère à la connaissance en actes, à savoir celle qu’il fait émerger de
l’explication directe des actions en termes de raisons (ou de causes) et
d’intentions sous-jacentes.

Dans ce cadre, l’analyse correspond en fait à trois niveaux imbriqués :


l’observation, la description et l’interprétation. Chacun de ces niveaux
d’analyse est guidé par des hypothèses de travail spécifiques.

L’objet du travail dirigé étant centré sur l’analyse à dominante


extrinsèque, nous illustrerons essentiellement cette approche à travers un
exemple.

Pour faciliter ce travail d’observation, de retranscription puis d’analyse


statistique ultérieure, il existe aujourd’hui des logiciels informatiques
couramment utilisés et travaillant à partir d’enregistrements vidéo réalisés
sur le terrain. Nous pourrons citer entre autre KRONOS-ACTOGRAM et
CAPTIV [ACT 07, CAP 07].
Analyse de l’usage 51

2.3.4.2. La description de l’activité


Il s’agit d’un travail de préparation de la phase d’interprétation des
résultats qui consiste à mettre à plat, sur des chroniques ou des graphes
d’analyse, les données retranscrites sur des grilles ou enregistrées.

La description à dominante extrinsèque consiste à reporter sur une


chronique (par étymologie, relative au temps) les données recueillies.

Figure 2.2. Analyse d’activité extrinsèque réalisée à l’aide du logiciel CAPTIV

L’exemple présente une analyse d’activité extrinsèque réalisée à l’aide du


logiciel CAPTIV (figure 2.2). Il s’agit d’un extrait de la description d’une
séquence d’assemblage réalisée manuellement d’une partie d’un appareil
électroménager sur une chaîne de montage. Sont reportées sur l’extrait, les
actions de la main droite (prise de vis et vissage), les actions de la main
gauche (lissage du joint) ainsi que les activités musculaires (saisies
52 La conception industrielle de produits 3

automatiquement grâce à des capteurs) de l’index droit, index gauche,


majeur droit et pouce gauche.

2.4. Etude de cas : conception d’une interface automobile à partir des


données d’usage4

L’objectif de cette étude de cas est d’illustrer les bénéfices potentiels de


l’analyse des activités pour la conception technique d’un produit nouveau et
pour l’identification de son futur marché. Les données présentées dans cette
section sont fictives mais s’appuient sur des travaux réels menés par les
auteurs.

2.4.1. Contexte de l’étude et demande industrielle

Nous nous plaçons dans le cas d’une demande industrielle concernant


l’interface de contrôle des fonctions de confort (fonctions sonores et
thermiques) sur un tableau de bord automobile (figure 2.3) : le
commanditaire souhaite développer une interface multimodale, c’est-à-dire
un système permettant d’utiliser plusieurs modalités de communication pour
lancer des commandes [OVI 92]. Dans notre cas, ces modalités sont la
parole et les gestes sur un écran tactile : les utilisateurs auront donc le choix
d’activer les fonctions de confort par des commandes verbales (par
exemple : « Play CD »), par l’utilisation de l’écran tactile (par exemple :
appui sur la touche CD), ou encore par la combinaison de commandes
verbales et tactiles (par exemple : « Play » + appui sur la touche CD). L’idée
que l’interaction verbale ou multimodale puisse être une alternative aux
commandes gestuelles est particulièrement pertinente dans le cas d’une
interface automobile. En effet, la finalité est d’augmenter la sécurité et donc
de permettre aux utilisateurs de contrôler les fonctions de confort sans
nécessairement quitter la route des yeux ou lâcher une main du volant.

Le problème des concepteurs est qu’ils ne savent pas a priori comment


les utilisateurs vont formuler leurs commandes verbales ni comment ils sont
susceptibles de combiner paroles et gestes (avec quelles relations
temporelles et sémantiques ?). Notre hypothèse principale de conception est

4. D’autres exemples sont disponibles sur le site Hermès : www.hermes-science.


fr/yannou/cip.zip
Analyse de l’usage 53

que nous devons fonder le développement du système sur les comportements


réels des utilisateurs. Ceci implique de modéliser l’usage de ce produit en
amont de sa conception : ce travail devrait permettre d’une part d’établir un
cahier des charges concepteur adapté à l’usage que nous aurons observé, et
d’autre part de fournir une évaluation préliminaire de l’interface, sur des
éléments fonctionnels, stylistiques, sur l’ergonomie du mode d’interaction
choisi et l’acceptabilité du futur système.

Figure 2.3. Maquette de l’interface à développer

2.4.2. Démarche méthodologique

Pour étudier l’usage en amont de la conception, nous avons choisi


d’utiliser une méthode de simulation nommée le magicien d’Oz. Il s’agit
d’une technique ancienne de simulation des systèmes techniques avant leur
mise en service effective. Elle est couramment utilisée en conception
d’interfaces homme-machine incluant notamment la reconnaissance vocale
[DAH 93].

La technique consiste à charger un compère humain de contrôler à


distance l’interface de l’utilisateur de sorte que l’interaction soit fluide et que
le système semble réellement fonctionnel. Les utilisateurs ne sont informés
qu’a posteriori que le système était simulé (pour des raisons éthiques il faut
toujours, en fin d’expérimentation, dévoiler le dispositif utilisé et les buts de
l’expérimentation).
54 La conception industrielle de produits 3

La plateforme de simulation comprend notamment [OVI 92, DAH 93,


COU 95] :
– une maquette de l’interface utilisateur (affichage graphique, messages
sonores produits par le système, etc.) ;
– le moyen, pour le magicien, d’avoir connaissance en continu du
comportement de l’utilisateur (transmissions par caméras, par micros, par
événements système, etc.) ;
– l’interface magicien permettant de contrôler l’interface utilisateur, et
placée en réseau avec celle-ci.

Pour notre étude nous avons placé la maquette de notre interface


(figure 2.2) dans un simulateur automobile équipé de caméras permettant au
magicien, dans une autre pièce, de répondre aux comportements de
l’utilisateur par l’activation des fonctions appropriées. Par exemple, si
l’utilisateur dit « dix-huit degrés », le magicien règle manuellement la
température à dix-huit degrés et fait afficher « dix-huit degrés » sur la
maquette de l’interface. Ainsi, l’utilisateur pense que l’interface est
réellement fonctionnelle.

Trente-neuf utilisateurs ont participé à cette étude. Nous avons fait en


sorte de sélectionner trois catégories d’utilisateurs en fonction de leur degré
d’expertise dans l’activité de conduite :
– dix-sept conducteurs novices (ayant zéro à six mois de conduite), parmi
lesquels neuf hommes et huit femmes ;
– dix conducteurs occasionnels (n’ayant pas de véhicule personnel et
conduisant deux à huit fois par an), composés de sept hommes et trois
femmes ;
– douze conducteurs experts (possédant un véhicule personnel et
conduisant toutes les semaines au minimum), parmi lesquels sept hommes et
cinq femmes.

Nous les avons fait utiliser le simulateur sur parcours urbain pendant
trente minutes. Dans ce laps de temps, ils avaient pour instruction de
procéder à au moins dix réglages des fonctions de confort, au choix. Pour
cela nous ne leur avons donné aucune consigne sur la manière d’utiliser
l’interface multimodale, afin d’observer leurs comportements spontanés.
Enfin, une fois le test fini, les utilisateurs ont répondu à un questionnaire.
Analyse de l’usage 55

2.4.3. Résultats

Cette étude nous a permis d’observer puis d’analyser le comportement


multimodal spontané des utilisateurs face à notre interface simulée. Par
exemple, nous avons pu construire une grammaire de commandes verbales.
Nous avons ainsi constaté que les utilisateurs ne formaient pas de phrases en
langue naturelle mais parlaient par mot-clés ou par commandes (par exemple
« ventilation + » ou « augmenter-température-deux-degrés », etc.). Nous
avons également construit une grammaire de commandes multimodales, qui
nous a montré que les combinaisons de gestes et de paroles pouvaient être
parfois complémentaires (par exemple « augmenter » + sélection du curseur
du volume sonore), parfois redondantes (comme « radio » + sélection du
bouton radio) ou encore concurrentes (par exemple lorsqu’un utilisateur se
trompe et dit « + » alors qu’il fait le geste de déplacer le curseur de la
ventilation vers le « moins »). Ces observations sont importantes car elles
permettent aux développeurs de savoir quels types de cas le système devra
être capable de gérer : par exemple il doit être capable de détecter de la
redondance et de ne pas lancer deux fois la même fonction ; il doit aussi
gérer les erreurs des utilisateurs en privilégiant par exemple les commandes
gestuelles, considérées comme plus fiables que les commandes verbales.
Nous avons également étudié la coordination temporelle des modalités et
nous avons constaté qu’il n’y avait un chevauchement temporel entre les
modalités que dans 52 % des cas. Le système devra donc être capable de
relier sémantiquement des commandes qui n’ont pas été délivrées
simultanément. L’ensemble de ces résultats a été formalisé au sein du cahier
des charges concepteur.

A partir de toutes les variables comportementales que nous avons


relevées, nous avons également cherché à identifier des profils de
comportements, des invariants permettant de caractériser les utilisateurs. La
liste des variables dont nous disposions est la suivante :
– pourcentage de commandes verbales pour chaque utilisateur,
– pourcentage de commandes gestuelles,
– pourcentage de commandes multimodales,
– pourcentage de redondance entre parole et gestes,
– pourcentage de complémentarité,
– pourcentage de concurrence,
56 La conception industrielle de produits 3

– pourcentage de constructions séquentielles (sans chevauchement


temporel entre paroles et gestes),
– pourcentage de constructions simultanées (avec chevauchement temporel).

Pour mettre en évidence des relations entre ces variables, nous avons
utilisé la méthode d’analyse en composantes principales [BUI 06], qui a
fourni une visualisation du nuage des variables, autour de deux axes
(figure 2.3, graphique du haut). L’examen des contributions à la variance de
chaque axe permet ensuite d’interpréter la signification des axes : nous
voyons ainsi que l’axe vertical oppose les commandes verbales en haut avec
les commandes gestuelles en bas. Nous renommons donc cet axe « parole vs.
gestes ». De même, nous voyons que l’axe horizontal oppose : à gauche, la
complémentarité et la séquentialité et à droite, la concurrence et la
redondance. Nous considérons que la gauche de l’axe représente un mode de
communication optimisé puisque chaque modalité est utilisée pour un
élément de la commande et que l’utilisateur étale ces éléments dans le temps
afin de ne pas mobiliser toutes ses ressources attentionnelles à un même
instant. Réciproquement, la concurrence et la redondance constituent des
modes de communication non optimisés puisque la même commande est
donnée par les deux modalités ou bien que celles-ci s’opposent. Nous
renommons donc l’axe horizontal « communication optimisée versus peu
optimisée » (figure 2.4).

Figure 2.4. Résultats de l’ACP : nuage des variables et nuage des groupes d’individus
Analyse de l’usage 57

Nous avons ensuite calculé la position des points moyens des groupes
d’utilisateurs (novices, occasionnels, et experts) sur les axes tels que nous
les avons renommés. Ceci nous a permis de comparer les groupes
d’utilisateurs en fonction du comportement qu’ils ont manifesté durant le
test. Ainsi, il apparaît que les novices se caractérisent principalement par
l’utilisation de la parole. Les conducteurs occasionnels se caractérisent
par l’utilisation de gestes et par une communication optimisée. Enfin, les
experts se caractérisent de façon primordiale par l’utilisation de gestes.
Ces résultats montrent que les commandes verbales ont été
principalement exploitées par les utilisateurs novices, c’est-à-dire la
population qui a probablement le moins automatisé l’activité de conduite.
L’utilisation de commandes verbales leur permet de conserver un
maximum de ressources perceptives et motrices pour l’activité de
conduite. A l’inverse, les experts qui ont sans doute fortement automatisé
la conduite peuvent allouer davantage de ressources à l’utilisation de
commandes gestuelles pour la gestion des fonctions de confort. Il est
également probable qu’ils préfèrent ce mode opératoire car il respecte
leurs habitudes. Enfin, les utilisateurs occasionnels constituent une
population intermédiaire qui peut allouer des ressources cognitives à
l’interaction gestuelle mais qui a des habitudes de conduite moins ancrées
que les utilisateurs experts.

Une dernière série de résultats provient des réponses que les


utilisateurs ont fournies dans le questionnaire post-expérimental :
– notre maquette a été globalement bien notée en termes d’utilisabilité
(facilité d’utilisation, efficacité perçue du système, satisfaction, etc.). En
cela, les novices ont eu tendance à donner de meilleures évaluations que
les experts mais cette différence n’est pas statistiquement significative ;
– la moyenne globale d’utilité du futur système et d’acceptabilité est
mitigée, ce qui provient du fait que les experts ont donné des notes
d’utilité et d’acceptabilité significativement inférieures aux notes des
novices. Ce résultat corrobore notre précédente analyse des profils
comportementaux des trois groupes d’utilisateurs.

2.4.4. Discussion

Nous pouvons conclure de notre étude que le concept d’interface


multimodale a été globalement bien perçu par les utilisateurs, mais qu’il
s’avère plus approprié pour les conducteurs novices. Le produit final
58 La conception industrielle de produits 3

devra donc être implanté en priorité dans des voitures destinées aux
jeunes conducteurs.

De manière plus générale, notre analyse des usages nous a permis de


contribuer directement à la conception technique d’un produit nouveau
(construction d’une grammaire de commandes à la base du cahier des
charges concepteur) et à l’identification de son futur marché (profils
comportementaux et données subjectives d’acceptabilité de trois
populations d’utilisateurs potentiels). La démarche que nous avons suivie
respecte la notion de conception centrée utilisateur (définie dans la norme
ISO 13407 [ISO 99], et va même au-delà puisqu’elle nous a permis de
simplifier le processus de conception en identifiant les comportements
utilisateurs avant même d’avoir développé le produit. Enfin, en
identifiant des schémas d’utilisation du système, qui varient en fonction
de l’expérience des utilisateurs, nous avons obtenu des résultats
réutilisables, par exemple, dans le cadre de la recherche de modes
d’interaction innovants pour les automobiles.

2.5. L’usage : un terme global regroupant des visions locales sur l’usager

L’engouement pour les nouvelles technologies plonge aujourd’hui la


recherche, mais aussi les acteurs de la conception dans l’univers de
l’usage. Le terme « usage » a été approprié par l’ensemble des acteurs de
la conception.

En effet, ce terme semble avoir une signification pour chacun des


acteurs de la conception et il tend à réunir ces individus vers le même
paradigme : la prise en compte de l’utilisateur. Néanmoins, on se rend
compte que ce terme n’a pas tout à fait la même signification suivant les
différents acteurs du processus de conception de produit. Sans doute
parce que ces acteurs n’ont pas les mêmes objectifs dans l’acte de
conception. En fait, au-delà d’une hétérogénéité des significations, nous
pensons que c’est plutôt l’angle de regard des acteurs sur l’utilisateur qui
est différent. En effet, nos observations dans les projets de conception
regroupant plusieurs acteurs (ergonomes, marketeurs, technologues,
designers, utilisateurs) nous ont amenés à construire une échelle des
usages (figure 2.5).
Analyse de l’usage 59

Figure 2.5. Echelle d’observation des usages. Différents niveaux d’observation


pour différents acteurs [VAL 05]

Nos observations des projets de conception nous ont amenés à envisager


l’usage comme un terme pluridisciplinaire abordant plusieurs dimensions
d’un même sujet : l’utilisateur. Chacun des acteurs des projets de conception
peut en effet apporter un regard sur les pratiques des utilisateurs. Mais les
informations des acteurs ne se situent pas sur les mêmes niveaux de l’échelle
d’observation des usages (figure 2.5). Chaque acteur possède ainsi une
information pertinente issue de sa propre analyse, mais cette information est
partielle et révèle des problèmes locaux au regard de l’ensemble des
représentations du groupe.

2.6. Coopérer pour intégrer et intégrer pour concevoir

Si la conception intégrée et la conception participative diffèrent par leurs


domaines de recherche respectifs, elles se heurtent à la même
problématique : l’interdisciplinarité. Qu’il faille prendre en compte
l’ensemble des dimensions relatives à l’usage (partagées entre différents
acteurs comme l’ergonome, le sociologue, le marketing, etc.) ou intégrer
60 La conception industrielle de produits 3

l’ensemble des dimensions relatives à la prise en compte de la globalité du


cycle de vie du produit, les chercheurs en conception sont en accord
aujourd’hui sur la nécessité d’assister la conception en amont des processus
[TIC 96, BOU 98, DAR 01], dans le but de faciliter l’identification des
besoins ainsi que l’élaboration des solutions conceptuelles [DAR 01].

L’objectif global étant de faire émerger le produit par intégration de


l’information multi expertise, une nécessaire confrontation de compétence et
négociation entre des logiques différentes doit se réaliser. On parle alors de
« coordination coopérative » [BOU 98]. L’enjeu global devient alors la
génération d’outils d’assistance à la coopération pour favoriser et générer
l’interaction qui est un point d’entrée à la prise de décision en conception
[ROU 99]. Ces outils d’assistance sont appelés « objets intermédiaires
médiateurs » dans la conception [CIH 02, BOU 98] et sont au cœur de la
problématique de l’interdisciplinarité dans le sens où ils permettent
l’expression de représentations partagées lors de la confrontation des
différentes expertises en conception intégrée.

Ainsi pour comprendre, analyser et « penser les usages » dans le but de


concevoir, il faut reconstruire l’usage à partir de l’ensemble de ses
dimensions, identifiées par les acteurs de la conception. L’ergonome avec
son apport métier doit donc nourrir la notion d’usage au travers d’un
référentiel qui doit être commun pour tous les acteurs du projet de
conception [ROU 96]. L’usage, par sa définition à multiples facettes et
interdisciplinaire, est un élément fort générant l’interdisciplinarité et devant
donc être au cœur du référentiel commun. Il permettra d’impulser une
conscience de groupe nourrie et entretenue par une démarche intégrant les
représentants des utilisateurs et les utilisateurs, favorisant l’interaction des
individus du groupe de conception pour coopérer. Ainsi nous pensons que
l’usage peut être un thème médiateur dans l’acte de conception favorisant
l’interdisciplinarité en amont du processus de conception et pouvant donner
une forme intégrée au processus de conception [ROU 96, VAL 05, MAX 04,
MIN 03].
CHAPITRE 3

Analyse sémantique en conception


de produits

3.1. Introduction

Actuellement, les industriels se sont principalement attachés à optimiser


leurs coûts de revient, en d’autres termes, réduire les coûts d’obtention du
produit tout en lui garantissant les qualités requises. Ceci s’explique du fait
que les entreprises évoluent aujourd’hui dans un contexte de compétitivité et
de concurrence internationale. Dans les années à venir, les industriels
devront élaborer progressivement des stratégies innovantes pour répondre à
de nouveaux modes de consommation. Actuellement, la pérennité d’une
entreprise est directement liée au client qui décide d’acheter ou non ses
produits, il est primordial de prendre en compte sa demande de façon
optimale [POI 05].

Avant l’acquisition du produit par le consommateur, le produit traverse


trois grandes phases de mise en œuvre : celle de conception, de production et
celle de commercialisation. La prise en compte du consommateur se doit
d’intervenir dans la phase de conception afin d’intégrer toutes les
caractéristiques stylistiques et techniques qui séduisent le consommateur.

Chapitre rédigé par Anne GUENAND et Fabrice MANTELET.


62 La conception industrielle de produits 3

Le problème posé à propos des produits et des services n’est plus


seulement de les mettre le plus rapidement possible sur le marché, mais aussi
de faire en sorte de réduire le délai de leur acceptation par l’usager et de
faciliter cette acceptation. L’apparence visuelle d’un produit joue un rôle
significatif dans la détermination de la réponse du consommateur [PET 04].
Il faut donc savoir anticiper pour proposer un produit répondant aux attentes
des futurs clients, de plus en plus exigeants.

L’analyse sémantique est l’un des outils majoritairement utilisés en


Europe pour évaluer un prototype ou une représentation intermédiaire d’un
produit auprès des consommateurs afin d’aider les concepteurs à effectuer
des choix stratégiques sur la définition du futur produit à concevoir
(figure 3.1).

Figure 3.1. Utilisation de l’évaluation sémantique tout au long du processus de conception

3.2. De la sémiologie à la sémantique

F. de Saussure a donné les bases d’une science qu’il appelait sémiologie


ou l’étude des signes dans la société. « La langue est le plus important des
systèmes de signes exprimant des idées. On peut concevoir une science qui
étudie la vie des signes au sein de la vie sociale ; elle formerait une partie de
la psychologie générale et nous la nommerons sémiologie (du grec sêmion,
signe). Elle nous apprendrait en quoi consistent les signes et quelles lois les
régissent ».
Analyse sémantique en conception de produits 63

La sémiologie implique tout d’abord un système de relations entre deux


termes : un signifiant et un signifié. Le signifiant associé au signifié va
constituer un signe. Le signifiant est un support pour le signifié.

Il existe plusieurs méthodes faisant appel à la sémiologie, la plus utilisée


reste l’analyse sémantique. La sémiologie va nous permettre de mieux
comprendre et de mieux exploiter les mots générés par le consommateur
autant pour la dénotation que la connotation. Cette meilleure compréhension
va permettre d’effectuer une analyse plus pertinente. D'une manière
générale, la sémantique est une branche de la linguistique qui étudie les
signifiés.

3.3. L’analyse sémantique

L’analyse sémantique est un outil (écart-type) développé par Osgood


[OSG 57] à l’université de l’Illinois qui permet de mesurer les connotations
des objets et des images. On fait ressortir le sentiment des intervenants
traduit par des qualificatifs. Ces connotations sont ensuite ordonnées dans
une grille et évaluées indépendamment. On effectue une évaluation des
impressions subjectives. Cela revient à définir une impression globale du
produit. Une personne va donc évaluer un objet, un produit, une
représentation intermédiaire de produit en complétant une grille sémantique
(figure 3.2).

Figure 3.2. Evaluation visuelle d’un produit par analyse sémantique


64 La conception industrielle de produits 3

Selon Osgood, pour mesurer l’impact du (des) message(s) des produits


sur les individus, un concept est évalué à partir d’une sélection d’adjectifs.
L’évaluation fait appel à trois dimensions, le système E.P.A :
– E : évaluation (bon-mauvais, etc.),
– P : pouvoir (fort-faible, etc.),
– A : activité (intense-lent, etc.).

Quelques paires d’adjectifs antonymes sont des mesures presque pures de


ces dimensions (tableau 3.1). En les utilisant, on peut obtenir avec économie
des mesures fiables de la réponse globale d’une personne à un objet. Le
système E.P.A est approprié dans le cas d’un intérêt pour des réponses
affectives. Il permet des comparaisons de réactions sur des objets largement
disparates. La mesure de l’écart-type permet d’accorder un degré de
signification aux réponses.

3.3.1. Construction d’une grille sémantique

La grille d’analyse est constituée d’une liste de qualificatifs regroupés par


paires sur une même ligne. Sur cette ligne est alors positionné le choix. Les
sujets évaluent chaque paire de qualificatifs sur une échelle restreinte de cinq
à sept niveaux. Le point central constitue l’élément de neutralité
(tableaux 3.1, 3.2, 3.3).

Les grilles peuvent se présenter de trois manières sensiblement


différentes (tableaux 3.1, 3.2 et 3.3).

-3 -2 -1 0 1 2 3
Moderne Classique
High-tech Rétro
Ergonomique Inadapté

Tableau 3.1. Grille avec échelle numérique centrée

--- -- - 0 + ++ +++
Moderne Classique
High-tech Rétro
Ergonomique Inadapté

Tableau 3.2. Grille avec échelle qualitative centrée


Analyse sémantique en conception de produits 65

1 2 3 4 5 6 7
Moderne Classique
High-tech Rétro
Ergonomique Inadapté

Tableau 3.3. Grille avec échelle numérique croissante

Les qualificatifs sont placés de manière aléatoire pour ne pas avoir d’un
côté les aspects positifs et de l’autre les aspects négatifs dans le but de ne pas
influencer le sujet.

Il existe d’autres types d’échelles de notations comme l’échelle de Likert


(tableau 3.4), l'échelle à supports sémantiques de Thurstone (tableau 3.6) ou
l'échelle sémantique différentielle d'Osgood (tableau 3.5).

« Ce produit est-il ergonomique? »


Tout à fait en Tout à fait
En désaccord Sans opinions D'accord
désaccord d'accord
1 2 3 4 5

Tableau 3.4. Echelle de Likert ou échelle monopolaire

Pour moi ce produit est


-3 -2 -1 0 1 2 3
Moderne Traditionnel
Austère Ludique

Tableau 3.5. Echelle sémantique différentielle d’Osgood ou échelle bipolaire

Dans quelle mesure êtes vous satisfait de votre produit ?


Très satisfait Satisfait Sans opinions Insatisfait Très insatisfait
10 9 8 7 6 5 4 3 2 1

Tableau 3.6. Echelle à supports sémantiques de Thurstone


66 La conception industrielle de produits 3

3.3.2. Choix des adjectifs sémantiques

L’analyse sémantique permet d’évaluer visuellement une image de


produit, une représentation intermédiaire de produit ou un prototype de
produit afin de quantifier ce que ressent le consommateur en visualisant ce
produit. Cette analyse se présente sous forme de grille sémantique que le
consommateur doit remplir. Il faut donc choisir les descripteurs sémantiques
de manière pertinente.

Dans un premier temps, pour construire la grille sémantique, il faut


définir un certain nombre de qualitatifs (au-delà de vingt-cinq on enregistre
un phénomène de saturation de la part des sujets interrogés). Le remplissage
d’une grille ne doit pas prendre plus de deux à trois minutes, la personne ne
doit pas réfléchir pour donner son impression. Le jugement doit être
spontané par rapport au produit [QUA 94].

Les qualificatifs doivent être suffisamment variés pour qu’ils puissent


bien caractériser les différents croquis, roughs, images de synthèse du
produit, mais aussi suffisamment standardisés pour que des moyennes
puissent s’établir et qu’un jugement d’ensemble ressorte [OSG 57].

Plusieurs méthodes préalables permettent d’aider à la définition des


adjectifs qualitatifs :
– la méthode du brainstorming, l’équipe projet se réunit et définit les
adjectifs sémantiques les plus pertinents pour la définition de la
représentation intermédiaire à faire évaluer ;
– la méthode appelée « constellations d’attributs » qui consiste pour un
groupe de travail, à attribuer des qualificatifs variés autour d’un concept. Ce
jeu d’association libre de mots donnera lieu à une représentation graphique
selon une disposition étoilée. Les mots associés sont placés sur le graphique,
autour du concept inducteur, selon une distance inversement proportionnelle
à leur fréquence d’apparition. On ne retiendra que les qualificatifs les plus
souvent nommés. On obtient alors une liste de base qui peut elle-même être
testée.

3.3.3. Sélection du panel d’utilisateurs

Il est exclu et inutile dans la plupart des cas d'interroger l'ensemble des
individus qui composent l’étude. Il est en revanche possible de constituer un
Analyse sémantique en conception de produits 67

échantillon de cette population, c'est-à-dire un groupe restreint et accessible


de personnes présentant des caractéristiques identiques à la population
étudiée.

Plusieurs méthodes permettent de sélectionner le panel de sujets à


interroger, souvent des utilisateurs externes au projet de conception :
– la méthode probabiliste,
– la méthode des quotas,
– la méthode de l’échantillon typique.

3.3.4. Choix des produits

Le nombre de produits ne doit pas être trop important, de même que le


nombre de qualificatifs, afin de permettre aux sujets de répondre de façon
spontanée en deux à trois minutes maximum par grille d’évaluation. Dans le
cas présenté par la suite, la grille comporte douze qualificatifs, l’évaluation
porte sur quatre produits et le nombre de sujets interrogés est de vingt-cinq.
Du nombre de sujets interrogés et de la cohérence des réponses va dépendre
la finesse des résultats et la représentativité des réponses pour une population
donnée. Plus on a de réponses et plus on pourra facilement déduire des
segments de consommateurs ou d’utilisateurs et révéler des tendances
cachées. C’est a posteriori que l’on peut évaluer si le nombre de sujets est
suffisant.

3.4. Exploitation des résultats

3.4.1. Traitement des résultats par moyenne et écart type

On dépouille les grilles en réalisant des graphiques qui présentent l’avis


de l’ensemble des personnes interrogées. Cela permet de réaliser un profil
général de ce qui est attendu. Le résultat est un outil de comparaison. Les
comparaisons se font selon trois axes principaux :
– facteur d’évaluation (plus ou moins bon ; plus ou moins mauvais),
– facteur de puissance (plus ou moins grand ; plus ou moins petit),
– facteur d’activité (plus ou moins actif ; plus ou moins calme).
68 La conception industrielle de produits 3

Cette méthode peut être utilisée pour évaluer les significations d’un objet
comme le dit Améziane Aoussat dans sa thèse [AOU 90]. En effet, on réalise
un profil idéal que l’on compare au profil des solutions émises. La solution
la plus proche du profil idéal sera la solution retenue (figure 3.3).

Figure 3.3. Etude des profils sémantiques de quatre produits

3.4.2. Traitement des résultats par ACP

Après avoir recueilli les données des questionnaires remplis, elles sont
codées.

L'analyse des données recouvre un grand nombre de méthodes qui ont


pour objectif de décrire, synthétiser, expliquer l'information contenue
dans de vastes tableaux de données.

L’objectif de l’analyse en composantes principales est de représenter


graphiquement les relations entre les variables quantitatives (ou
assimilées à des variables quantitatives) et de visualiser en même temps
les individus qui sont en relation avec ces variables. A partir de cette
double visualisation, l’on pourra interpréter les résultats en fonction de sa
connaissance du sujet étudié. Lors d’une étude sémantique pour
concevoir une nouvelle table, la visualisation des tables par rapport aux
adjectifs sémantiques a permis d’optimiser l’interprétation des résultats
(figure 3.4).
Analyse sémantique en conception de produits 69

Interpréter signifie donner du sens aux axes factoriels, à des


regroupements, à des singularités, à des continuums, à des proximités
entre variables ou entre individus. C’est cette synthèse fondée sur une
exploitation des résultats d’analyse, qui permet à l’analyste de conclure,
de construire d’autres hypothèses, de mettre en jeu d’autres relations
entre variables jusqu’à ce que la conclusion soit suffisamment claire.
Ainsi l’on construit sa conclusion par un dialogue avec les données, grâce
à la méthode employée [JAM 99].

Figure 3.4. Etude des profils sémantiques par ACP [PAT 05]
70 La conception industrielle de produits 3

3.5. Conclusion

L’analyse sémantique traite la question de l’impact du message. Cette


méthode vient, en complément des autres méthodes d’évaluation
(sensorielle, ou d’usage), contribuer à réduire le décalage entre les bénéfices
projetés par l’entreprise sur le produit et les bénéfices réellement perçus par
l’utilisateur, dès l’amont de la conception [GUE 03]. L’analyse sémantique
permet d’orienter au plus tôt des spécifications liées à la stratégie de
l’entreprise, le choix de l’architecture, le choix des spécifications produit et
la validation du prototype [GUE 04] [MAN 06].

Néanmoins, elle repose par nature sur un système d’échelles et de


qualificatifs imposés, qui peuvent ne pas correspondre à la perception du
sujet interrogé ou être incomplets pour décrire la perception de certains
sujets. D’autres méthodes basées sur l’étude des différences de perception
par les sujets sont aussi utilisées, s’affranchissant ainsi des problèmes liés à
la polysémie des mots.

3.6. Enoncé des exercices d’application

Ce sous-chapitre comprend deux parties, la première expose les énoncés


des travaux dirigés d’analyse sémantique et les orientations des démarches.
Les exercices d’application portent sur l’étude de baladeurs musicaux MP3
(figure 3.5). La seconde partie apporte les éléments de corrections.

3.6.1. Exercice n° 1 : constitution d’une liste de descripteurs sémantiques

Observez les images des produits présentés en figure 3.5. Quatre de ces
baladeurs musicaux ont été conçus dans le cadre d’un projet prospectif de
conception centrée sur l’utilisateur, en revendiquant deux grands axes :
l’intuitivité et le plaisir d’usage.
1. Individuellement, dressez une liste d’une dizaine d’adjectifs qui
vous semblent décrire les produits et qui permettent de les différencier.
2. Première mise en commun : par groupe de 2 ou 3 personnes,
sélectionnez les adjectifs (et antonymes) pertinents en fonction des critères
vus en cours.
3. Deuxième mise en commun : au tableau ou au paper-board,
présentez par groupe votre liste de descripteurs. Chaque groupe vient
Analyse sémantique en conception de produits 71

compléter la liste commune par les attributs nouveaux et conforter les


attributs déjà présents. Le résultat est une liste unique enrichie de l’apport de
chaque participant.

Figure 3.5. Cinq produits soumis à l’évaluation (Stéphane LANOE©,


Guillaume SANVITO©, Thomas BARSE©, Adrien LEBBE©)5

3.6.2. Exercice n° 2 : choix de l’échelle

Selon l’ampleur du projet, le temps imparti et la finesse d’évaluation


recherchée, l’échelle choisie ne sera pas la même. Dans notre cas, qui est un
cas d’école à vocation d’exemple, nous ne cherchons pas la représentativité
des résultats, mais plutôt grâce à la diversité des réponses obtenues, des
grandes tendances qui permettraient de construire un second et nouveau
questionnaire pour chaque grand segment identifié.

Questions :
1. Quel type d’échelle choisira-t-on ?
2. Combien de graduations présentera-t-elle ?

5. Tous droits réservés aux auteurs des dessins : Stéphane LANOE, licence copyleft n° 2,
contact steph_ln@hotmail.com ; Guillaume SANVITO, contact guillaume.sanvito@tremplin-
utc.net ; Adrien LEBBE, contact adrien.lebbe@tremplin-utc.net ; Thomas BARSE, contact
thomas.barse@gmail.com
72 La conception industrielle de produits 3

3.6.3. Exercice n° 3 : analyse des données

Effectuez vous-même le test, saisissez les résultats des tests soumis à


d’autres personnes, dressez le profil de chaque produit en utilisant les
descripteurs issus de la deuxième mise en commun, et analysez les
résultats.

3.7. Corrigés des exercices d’application

3.7.1. Exercice n° 1 : constitution d’une liste de descripteurs sémantiques

Les termes de l’énoncé reprennent en partie des valeurs revendiquées par


les produits : intuitivité et plaisir d’usage. Ils doivent être présents dans la
liste des descripteurs de sorte à permettre de valider ou d’invalider l’effet de
l’image du produit sur les perceptions des sujets interrogés.

D’autre part, la présence d’un produit existant parmi quatre concept-


produits implique de rechercher ses revendications commerciales et de les
ajouter à la liste des descripteurs.

Enfin, les concept-produits ont été réalisés selon un cahier des charges
propre à chaque groupe projet, il convient là aussi d’ajouter les qualificatifs
de chacun à la liste commune, dans la limite d’une vingtaine de descripteurs,
de sorte à valider que les descripteurs liés au cahier des charges du produit
A, B, C ou D sont bien les mieux évalués par la cible à laquelle est destinée
chaque produit.

Une liste possible de qualificatifs pourrait être : intuitif, plaisant à utiliser,


léger, high-tech, élégant, doux au toucher, facile d’usage, irrésistible, de
qualité, cher, fragile.

3.7.2. Exercice n° 2 : choix de l’échelle

L’application du test sur un cas de concepts produits a pour objet


d’aider à valider certaines pistes de conception, et d’en invalider d’autres
de sorte à prendre des décisions d’orientation du projet de conception.
Les résultats sont donc exploités à titre indicatif de sorte à identifier les
valeurs perçues des différentes cibles auxquelles s’adressent chaque
produit. Aussi, dans ce cas, une échelle monopolaire comportant un
Analyse sémantique en conception de produits 73

nombre peu élevé de graduations convient. Cependant il faudra veiller à


interroger suffisamment de personnes de sorte à faire apparaître le mieux
possible des segments d’utilisateurs différents. En fonction du
positionnement marché du projet de conception, il conviendra
d’interroger des personnes faisant potentiellement partie des utilisateurs
ciblés par le produit.

3.8. Cas d’application industrielle : articulation valeurs sémantiques et


caractéristiques sensorielles

En 2003, une entreprise spécialisée dans les technologies de systèmes de


communications cherche à augmenter ses parts de marché auprès du grand
public, à améliorer la satisfaction de ses clients et à comprendre les
mécanismes qui structurent les préférences des utilisateurs de téléphones
mobiles de la marque et des marques concurrentes.

Cette entreprise fait appel au laboratoire ODIC (UTC JE2460) pour


l’aider à mettre en place une étude de qualité perçue. L’objectif est triple :
améliorer la qualité formelle des produits qu’elle développe, identifier la
perception des utilisateurs des produits du marché, produire des
connaissances qui seront exploitables dans le temps du projet et pour le
projet.

3.8.1. Déroulement de l’étude

1. La première étape consiste en l’identification des produits phares du


marché puis en la collecte des préférences pour un ensemble de
personnes identifiées. Les résultats sont mentionnés dans les pages qui
suivent comme étant des « données subjectives » issues des tests
hédoniques.

2. Une fois les produits préférés collectés et rassemblés au laboratoire


commencent les tests d’évaluation sémantique des produits. Les profils
sémantiques résultants sont présentés sur la figure 3.6. Les résultats sont
mentionnés dans les pages qui suivent comme étant des « données
subjectives » issues des tests sémantiques.
74 La conception industrielle de produits 3

Figure 3.6. Différentiel sémantique portant


sur cinq téléphones portables

3. Des tests sémantiques sont réalisés à trois reprises, en isolant un à


un chacun des sens à chaque test. D’abord visuellement, les perceptions
des valeurs connotatives des produits sont ensuite identifiées à partir des
perceptions acoustiques, puis enfin à partir des perceptions
kinesthésiques des sujets interrogés.

La figure 3.7 montre les résultats pour trois produits, selon les trois
modalités sensorielles. Nous pouvons constater que les résultats des
évaluations en mode visuel ne sont pas en cohérence avec les résultats
des évaluations acoustiques, voire liées aux manipulations.
Analyse sémantique en conception de produits 75

Figure 3.7. Illustration de l’écart qui existe entre les perceptions des valeurs connotatives
lors de tests visuels et lors de tests de manipulations. (Différentiel sémantique
en mode visuel et différentiel sémantique en mode manipulatoire)

4. Ainsi, afin de mieux comprendre les facteurs qui structurent les


préférences et les évaluations des utilisateurs, les tests sémantiques ont
été complétés par des évaluations sensorielles réalisées par un panel
d’experts entraînés. Les résultats sont mentionnés dans les pages qui
suivent comme étant des « données subjectives objectivées » issues des
tests sensoriels [GUE 03, GUE 05].

5. Afin de rendre les résultats des jugements d’experts exploitables par


les équipes de conception, des mesures physiques ont été réalisées dans
différents laboratoires – laboratoire de traitement du signal et laboratoire
biomécanique de l’UTC – (tableau 3.7). Les résultats des mesures
appareillées sont les données « objectives ». Le système de corrélation
entre les données subjectives et subjectives-objectivées d’une part, et les
corrélations entre les données subjectives-objectivées d’une part et les
données objectives sont présentées sur la figure 3.8. Ce système est
étudié et présenté dans une étude d’évaluation subjective faisant appel à
la théorie des expertons, dans le cas des téléphones portables [GUE05].
76 La conception industrielle de produits 3

Descripteurs
sensoriels Mesures
Pf Portables
biomecaniq biomecaniques
ues
Force ouv/fer:
Nerveux
0.44/0.18 N
Résistantà
1er Samsung Ang.criti. Ouv/fer:
l’ouverture
SGH-A300 71/47.5º
Résistantà
Vitesse ouv/fer:
la fermeture
259.62/310.46º/s
Force ouv/fer:
Nerveux
0.13/0.08 N
1er Sony CMD Résistantà
Ang.criti. Ouv/fer:
bis -Z5 l’ouverture
42/25º
Résistantà
Vitesse ouv/fer:
la fermeture
190.63/294.12º/s

Force ouv/fer:
Facile 0.48/0.04 N
3è d’ouverture Ang.criti. Ouv/fer:
Motorola V.
1 main 66/57º
Vitesse ouv/fer:
223.84/341.32º/s

Force ouv/fer:
Sonie: 2.25 sones
Facile 0.12/0.11 N
Acuité: 1.27 acum.
3è d’ouverture Ang.criti. Ouv/fer:
Tonie: 48 tu
bis DoCoMo 1 main 71/44º
Rugosité: 1.18 asper
D601ps Vitesse ouv/fer:
Plaisir:0.04 pu
385.87/511.63º/s

Tableau 3.7. Correspondance entre données subjectives-objectivées (descripteurs sensoriels


biomécaniques) et données objectives (mesures biomécaniques), correspondant à un instant t
à une préférence d’un groupe de consommateurs (Pf)
Analyse sémantique en conception de produits 77

Figure 3.8. Schéma de représentation des corrélation « données subjectives » / « données


subjectives objectivées » et « données subjectives objectivées » / « données objectives »

3.8.2. Application des résultats : aide à la décision

L’analyse des résultats par divers moyens statistiques (élémentaires et


multivariées) converge vers un ensemble de règles cohérentes du type « si »,
etc. « alors », etc. Par exemple, si « le caractère nerveux à l’ouverture » est
souhaité, alors « la force d’ouverture du clapet doit être comprise entre 0,18N
et 0,44N » ,« l’angle critique d’ouverture/fermeture doit être environ de
71 °/47 ° » et « la vitesse d’ouverture doit être d’environ 259 °/s, et de
fermeture de 310 °/s).

On peut ainsi noter que dans le cas où une entreprise souhaite respecter un
cahier des charges définissant les qualités sensorielles du produit à concevoir,
alors utilisant ce travail elle pourra garantir les qualités sensorielles projetées
[GUE 03, GUE 05].

Ainsi, une fois sa position définie par rapport à la concurrence, et le choix


des préférences à satisfaire effectué, l’entreprise aura pris connaissance des
paramètres de conception qu’elle aura à maîtriser, et pourra en ajuster la
valeur. Elle pourra ainsi satisfaire de façon optimale la combinaison des
facteurs objectifs influant sur les paramètres sensoriels qui contribuent à
structurer les préférences des utilisateurs, et réduire de façon optimale la
différence entre la qualité projetée dans le produit et la qualité réellement
perçue par les utilisateurs.
CHAPITRE 4

Analyse sensorielle en conception


de produits

4.1. Introduction et objectifs

Dans le marché concurrentiel actuel, les fonctionnalités d’un produit, la


qualité de fabrication ou le traditionnel rapport qualité/prix ne suffisent
désormais plus pour séduire le client. Dans le secteur automobile par
exemple, on constate que le consommateur est à la recherche d’une
expérience sensorielle valorisante lors de l’achat d’une voiture. Tout d’abord
une impression de qualité : il veut avoir l’impression que celle-ci est bien
conçue, bien pensée, qu’elle tiendra dans le temps. Ensuite il veut également
ressentir une ambiance particulière, comme s’il faisait corps avec la
machine. Il recherche un produit dégageant un caractère correspondant au
sien ou à l’idée qu’il se fait de la voiture idéale : simple, sportive ou
élégante, etc. Enfin, il recherche des matériaux agréables au toucher, une
odeur particulière ou des sonorités cohérentes avec cette ambiance. Ainsi, la
production de masse d’un véhicule unique ou avec quelques options a été
remplacée maintenant par une offre produit extrêmement diversifiée, objet
d’une différentiation par les sens du client utilisateur.

Pour intégrer toutes ces nouvelles contraintes, les industriels ont été
amenés à réfléchir à l’intégration du client-utilisateur à chaque stade de la

Chapitre rédigé par Jean-François PETIOT.


80 La conception industrielle de produits 3

conception/fabrication du produit [GIB 01, CRO 00, ROU 04]. Le client est
maintenant présent non seulement lors des classiques phases d’étude de
marché et de définition du besoin client (marketing), mais également dans
les phases de recherche, de mise en œuvre, et d’évaluation de solutions
techniques [PET 04]. Le concept de qualité perçue devient désormais
incontournable pour de nombreux produits manufacturés. La difficulté pour
les industriels est principalement de relier cette qualité perçue aux
caractéristiques du produit : ils doivent faire correspondre une émotion, une
sensation, un sentiment particulier aux éléments du design des produits
qu’ils proposent.

Dans ce cadre, l’analyse sensorielle, à l’origine développée dans


l’industrie alimentaire [EVA 98], est désormais pratiquée dans de nombreux
secteurs de l’industrie [ECR 97]. Au départ limitée aux aspects « contrôle
qualité » de produits, elle est devenue maintenant une méthode compétitive
pour le développement industriel de produits nouveaux. Les principaux
objectifs de cette méthode sont les suivants :
– améliorer le contrôle qualité de produits pour lesquels une
mesure instrumentale est impossible,
– suivre la production,
– développer des produits nouveaux,
– comprendre les préférences consommateur.

Nous proposons dans ce chapitre de présenter les points clés de l’analyse


sensorielle. Nous décrirons la méthode proprement dite avec la constitution
du panel d’experts, la définition de descripteurs et l’organisation d’épreuves
sensorielles. Les épreuves de préférences seront ensuite abordées, puis les
cartographies des préférences, pour la caractérisation sensorielle des produits
préférés. Une illustration concernant le design de téléphones portables
clôturera ce chapitre.

4.2. Méthode « analyse sensorielle »

Afin de développer des produits préférés par les consommateurs (ou par
des groupes homogènes de consommateurs, les segments), le principe de la
démarche sensorielle consiste à expliquer les préférences des
consommateurs par les propriétés sensorielles des produits, puis ensuite
d’expliquer ces propriétés sensorielles par les caractéristiques physiques des
Analyse sensorielle en conception de produits 81

produits (variables de conception). A ce niveau, deux types de données sont


requis pour décrire le ou les produits, constituant l’espace produit :
– les données sensorielles. Elles représentent les propriétés sensorielles
des produits et constituent une « mesure », dans le sens où il est nécessaire
d’estimer la justesse, l’exactitude et la fidélité des évaluations. Face à
l’impossibilité de développer une mesure instrumentale pertinente, on utilise
un panel d’experts pour l’évaluation des produits, afin de réduire le plus
possible les différences inter-individuelles ;
– les données hédoniques ou de préférence. Elles représentent le degré
d’acceptation des produits par des consommateurs. Ces évaluations sont
réalisées lors de tests consommateurs à grande échelle. Pour ces données, on
ne cherche bien sûr pas à réduire les différences inter-individuelles (tous les
goûts sont dans la nature !) mais à les observer et à les expliquer (par
exemple à l’aide de variables externes de type « catégorie
socioprofessionnelle » ou « tranche d’âge »).

L’analyse sensorielle permet d’accéder à ces deux types de données par


l’intermédiaire d’épreuves sensorielles, mettant en jeu un stimulus, une
question posée à un sujet, qui fournit une réponse, le plus souvent verbale,
exploitée par un expérimentateur (figure 4.1).

stimulus

question sujet

réponse
Réponse verbale ou
comportementale

Figure 4.1. Principe d’une épreuve sensorielle

Voyons les principaux outils utilisés pour le recueil de ces données


sensorielles.

4.2.1. Les descripteurs sensoriels et le panel d’experts

La métrologie sensorielle constitue la base du recueil des données


sensorielles. Elle consiste à utiliser l’humain comme un instrument de mesure,
82 La conception industrielle de produits 3

et repose sur la recherche et la quantification de descripteurs sensoriels


appropriés caractérisant les produits. Un nombre restreint de sujets à fort
pouvoir analytique (le panel d’experts) verbalisent et quantifient les perceptions
ressenties. La dissociation d’une perception complexe en informations simples
défini un profil sensoriel, véritable carte d’identité du produit.

Afin d’obtenir des mesures sensorielles les plus fiables possibles, il s’agit
de définir une liste de « descripteurs sensoriels » pertinents et consensuels
pour décrire les produits, puis de sélectionner et d’entraîner les experts afin
qu’ils fournissent des évaluations reproductibles sur ces descripteurs. Pour
que le profil sensoriel des produits testés soit utilisable pour la conception,
ce panel doit être :
– représentatif, c’est-à-dire posséder une moyenne représentative du
groupe (distribution normale) ;
– reproductible ; pour une série d’essais sur un même produit
(réplication), les résultats d’un expert doivent peu varier (écart-type faible),
les experts doivent associer une sensation avec un descripteur et être
reproductibles et étalonnés sur cette association ;
– homogène ; les résultats des experts ne doivent pas être très différents
les uns des autres (analyse de la variance).

La génération des descripteurs s’effectue par l’enchaînement de séances


individuelles (quatre au minimum) et de discussion de groupe. Au cours des
discussions sont écartés les termes hédoniques, quantitatifs, non
représentatifs d’une sensation (« sucrée » pour une odeur) ou inadaptés à la
description. La génération de descripteurs cesse lorsque les sujets ont épuisé
leurs vocabulaires. Une centaine de termes sont recensés, au sein desquels
figurent des synonymes. Une séance de quantification sur échelle pour
l’ensemble des descripteurs est réalisée. Un traitement statistique
multidimensionnel des résultats (analyse en composantes principales)
conduit à une réduction du nombre de descripteurs. La liste exhaustive est
réduite à une liste consensuelle de descripteurs. Au final, un nombre
maximal de quinze termes est préconisé. Les descripteurs doivent être
pertinents, précis, discriminants, indépendants et exhaustifs. Chaque
Analyse sensorielle en conception de produits 83

descripteur est accompagné d'une définition, d'un protocole d'évaluation et


d’une ou plusieurs références caractéristiques de la mesure6.

Il s’agit donc au maximum « d’objectiver » le subjectif, et de minimiser


les différences inter-individuelles. La méthode est maintenant très codifiée et
a donné lieu à des normes AFNOR NF ISO 8586-1, 2 [AFN 83, AFN 84] et
plus particulièrement NF ISO 11035 [AFN 95].

A ce niveau, il faut signaler qu’elle reste lourde et onéreuse (nombreuses


séances, nombreuses épreuves, contrôle des résultats), même si certaines
méthodes particulières permettent d’obtenir des résultats exploitables avec
un investissement limité (méthode du profil flash [SIE 00]).

On voit donc que la formation d'experts et la mise en place d'un


vocabulaire fiable et consensuel génère des données qui sont exportables
dans l'ensemble de l'entreprise, et constituent un outil quotidien de
communication concernant le produit. On peut citer par exemple le « champ
des odeurs® » de J-N Jaubert en olfaction et le référentiel tactile
SENSOTACT® de Renault en toucher, qui constituent deux exemples
d’outils disponibles pour une caractérisation sensorielle consensuelle de
produits.

4.2.2. Les épreuves de préférences

Pour pouvoir prédire l’acceptabilité d’un produit par les consommateurs,


et effectuer une synthèse de produit sur une formulation préférée, il est
nécessaire de recueillir un deuxième type de données, les données
hédoniques, ou de préférences. Celles-ci sont recueillies en effectuant des
tests de préférences à grande échelle sur un ensemble de consommateurs, qui
fournissent généralement des réponses traduisant une grande diversité de
points de vue qu’il est important d’exploiter pour la conception [TRA 01].

On distingue trois principaux types d’épreuves pour le recueil de données


de préférence :

6. Par exemple, le champ des odeurs utilisé par Renault comporte quarante-cinq molécules de
référence réparties sous 11 pôles. L’échelle de cotation varie de zéro à cinq.
84 La conception industrielle de produits 3

– évaluation hédonique. Le consommateur est invité à coter chaque


produit sur une échelle prédéfinie (figure 4.2). Cette épreuve, assez peu
instinctive, est employée si le nombre de produits est très important ;
– épreuve de classement. Le sujet doit classer les produits du plus
désagréable au plus agréable. Cette épreuve est « simple » pour
l’expérimentateur mais « complexe » pour le sujet, la stratégie de classement
devenant difficile si le nombre de produits est important (>15) ;
– épreuve de comparaison par paires. Le sujet doit indiquer sa préférence
entre deux produits, par exemple sur une échelle de catégories (>>, >, =, <,
<<). Cette tâche est très naturelle et facile à réaliser, mais le calcul de
« scores » de préférence peut s’avérer complexe car le sujet peut présenter de
l’inconsistance (A>>B>>C et A>C voire de l’intransitivité (A>B>C>A)
[DAV 88].

1. Très désagréable 5. assez agréable

2. désagréable 6. agréable
3. assez désagréable
7. Très agréable
4. ni désagréable ni
agréable

Figure 4.2. Questionnaire pour l’évaluation hédonique

Suite au recueil des données de préférence, il est nécessaire de procéder à


une classification des consommateurs en groupes homogènes concernant les
préférences : les segments. Diverses méthodes peuvent être utilisées, par
exemple la classification ascendante hiérarchique (CAH) [LEB 04].

Enfin, il s’agit d’interpréter les notes de préférence par les données


sensorielles pour pouvoir mener la conception d’un produit correspondant à
une cible donnée : c’est l’objet de la cartographie des préférences.
L’essentiel de la démarche d’analyse sensorielle est finalement résumée sur
la figure 4.3.
Analyse sensorielle en conception de produits 85

Panel d’experts Tests consommateurs :


- représentatif - réponses non comparables
- reproductible - Variabilité inter-individuelle
- homogène

Évaluation Tests de Tests


sensorielle préférences d’acceptation

Cartographie de préférences

Figure 4.3. Démarche d’évaluation sensorielle conduisant à la cartographie des préférences

4.2.3. Cartographie des préférences

Cette technique permet de mettre en relation les données sensorielles et


les données hédoniques. Nous nous intéressons dans ce chapitre aux
cartographies externes7 des préférences8 [CAR 72]. Le principe est tout
d’abord de choisir les variables sensorielles candidates qui sont chargées
d’expliquer les préférences. Généralement, afin de pouvoir faire des
représentations dans un espace de faible dimension (2 ou 3), et décorréler les
dimensions, on choisit comme espace de représentation des produits les
premiers facteurs (F1, F2, etc.) d’une analyse en composantes principales
des données sensorielles.

Ensuite, il s’agit d’identifier les régions de l’espace de représentation où


les préférences des consommateurs sont maximales, afin d’orienter la
conception vers des formulations préférables au niveau sensoriel. Pour cela,
on ajuste un modèle de préférence sur les données de chaque consommateur,
par une régression linéaire multiple. L’hypothèse forte de la cartographie
externe de préférence consiste à dire que des produits voisins
sensoriellement (proches dans l’espace sensoriel) doivent avoir des
préférences voisines.

7. Par opposition aux cartographies internes des préférences, qui étudient directement la
structure de préférence indépendamment des données sensorielles.
8. En anglais PREFMAP, pour PREFerence MAPping.
86 La conception industrielle de produits 3

Les méthodes de cartographie externe des préférences consistent à


effectuer, pour chaque consommateur, une régression polynomiale en
utilisant comme variables explicatives les coordonnées sensorielles (ou les
coordonnées factorielles) notées X1,…, Xk de chaque produit dans un espace
à k dimensions, et comme variable à expliquer le vecteur Y des notes de
préférences données par le consommateur. Formellement, le modèle
s’écrit (équation 4.1) :

k k k k
Y = α + ∑ β i . X i + ∑ δ i . X i2 + ∑∑ γ ij . X i X j (4.1)
i =1 i =1 i =1 j = i

Quatre types de modèles peuvent être ajustés (les coefficients α, β, δ, γ


étant déterminés par la méthode des moindres carrés) :
– le modèle vectoriel (phase 4), les δi et les γij sont nuls ;
– le modèle circulaire (phase 3), les δi sont égaux et les γij sont nuls ;
– le modèle elliptique (phase 2), les γij sont nuls ;
– le modèle quadratique (phase 1), équation complète.

La dénomination de « phase » provient de l’emboîtement de ces


modèles : le modèle en phase 1 contient tous les autres, un modèle étant en
réalité un sous–modèle de tout modèle de phase inférieure.

Un test de significativité de la régression (test de Fisher9) permet de


décider de conserver ou non le modèle en phase inférieure. Ce test contrôlera
la significativité globale de la régression linéaire multiple pour un certain
seuil de confiance. En outre, une régression non significative pour une phase
donnée pourra l’être pour une phase inférieure. Le coefficient de
détermination de la régression, R2, est également étudié : il indique le
pourcentage d’information pris en compte par la régression.

9. Test de Fisher (test de la significativité de la régression dans son ensemble). Il permet de


vérifier la pertinence d’un lien linéaire entre la variable à expliquer Y et les variables
explicatives Xk, pour un seuil de risque p appelé seuil de significativité. Pour p = 5 %, si
F>Fseuil, alors au moins une des composantes Xk apporte une contribution significative à
l’explication du comportement de la variable Y. Autrement dit, le risque qu’il n’y ait pas de
lien linéaire entre Y et une des Xk est plus petit que 5 %.
Analyse sensorielle en conception de produits 87

Considérons par exemple le cas où l’on souhaite expliquer les préférences


Y par deux variables sensorielles notées d1 et d2, à l’aide d’un modèle
vectoriel (cas qui sera développé dans l’exercice d’application). L’équation
du modèle est la suivante (4.2) :

Y = α + β1.d1 + β 2 .d 2 (4.2)

Les résultats de la régression (coefficients α, β1, β2, coefficient de


détermination R2 et statistique F) pour, par exemple, trois consommateurs A,
B, C, sont fournis dans le tableau 4.1.

β1 β2 α R2 F Significatif (p = 0.05)

A 0,82 0,42 -0,02 0,98 97,84 Oui

B -0,02 0,27 6,02 0,94 31,17 Oui

C 0,15 -0,59 5,33 0,37 1,17 Non

Tableau 4.1. Résultat des régressions linéaires multiples


pour les 3 consommateurs

Cette étude révèle trois comportements différents pour les


consommateurs :
– le sujet A dont les préférences sont bien expliquées par les données
sensorielles (régression globalement significative, R2 proche de 1). La
préférence de A est tirée principalement par le descripteur d1 (β1 = 0,82) et
un peu par d2 (β2 = 0,42) ;
– le sujet B dont les préférences sont aussi bien expliquées par les
données sensorielles. La préférence de B est tirée par le descripteur d2, et il
est insensible à d1 (β2 = -0,02) ;
– le sujet C dont la notation de préférence est très mal expliquée par les
descripteurs (la régression n’est pas globalement significative, R2 est faible).
Trois explications sont envisageables :
– ce sujet n’exprime pas de préférence, soit parce qu’il en est
incapable, soit parce qu’il a répondu au hasard aux tests,
88 La conception industrielle de produits 3

– ce sujet est influencé par d’autres descripteurs que ceux proposés


pour exprimer sa préférence,
– ce sujet a une structure de préférence plus complexe que les
précédents, le modèle vectoriel n’est pas adapté pour la décrire. Une étude
avec un modèle plus élaboré est nécessaire (par exemple un modèle
circulaire).

Pour avoir une interprétation graphique de la régression, on trace sur le


plan des descripteurs (figure 4.4) un vecteur :
– dont l’origine est arbitraire, par exemple au centre de la figure,
– dont la norme est proportionnelle à R2,
– dont l’extrémité a pour coordonnées (β1, β2).

On peut montrer que ce vecteur, appelé le modèle vecteur, est orienté


selon la ligne de plus grande pente du plan dont l’équation est donnée par la
formule (4.2). Il représente un consommateur, et on peut directement lire les
valeurs prédites par la régression en menant la perpendiculaire au vecteur
passant par le point considéré : les iso-préférences sont ainsi des droites
perpendiculaires au vecteur, le vecteur est dirigé vers l’augmentation de la
préférence. On voit ainsi sur la figure 4.4 que pour le consommateur B, la
valeur de préférence prédite pour le produit C7 est plus grande que la valeur
prédite pour le produit C5.
d2
B
C7

C5
A

C6 C4
C
C3
C2
C1
d1

Figure 4.4. Cartographie externe des préférences, modèle vectoriel


concernant 7 produits et 3 consommateurs A, B, C
Analyse sensorielle en conception de produits 89

Cette démarche permet de relier les caractéristiques sensorielles d’un


produit aux caractéristiques des préférences de consommateurs. C’est
pour cette raison un outil privilégié du marketing. Pour pouvoir être utile
en conception, il faut ensuite étudier les relations entre les descripteurs
sensoriels et des mesures physiques, chimiques ou biochimiques du
produit, ainsi que des caractéristiques de fabrication. Ce travail s’effectue
en utilisant l’arsenal des méthodes explicatives en statistique (analyse
conjointe, analyse discriminante, analyse de la variance, régression,
classification, etc.). Au final, on tient compte directement des préférences
des consommateurs pour la conception du produit, ce qui est l’objectif
ultime.

4.3. Conclusions

Nous avons présenté dans ce chapitre comment l’analyse sensorielle


peut être mise en œuvre pour la conception de produits. Pour effectuer la
description et la prescription du besoin en fonction des préférences, nous
avons présenté les points clés de l’analyse sensorielle et montré
comment, grâce aux cartographies de préférence10, on peut prédire
l’acceptation de produits par un consommateur ou un groupe de
consommateurs.

Ces outils sont de plus en plus utilisés en dehors du cadre de


l’industrie alimentaire, pour lesquels ils ont été mis au point, en
particulier en design industriel, où les aspects de style du produit sont
primordiaux [PET 04]. D’autres applications de cette méthode concernent
par exemple l’harmonisation de sons de moteurs automobiles [ROU 04],
le design de planche de bord [CRO 00], la conception d’avertisseurs
sonores, l’amélioration du bruit d’appareils de ventilation [SUS 98],
l’amélioration des propriétés tactiles des tissus de sièges automobiles
[GIB 01], l’étude du design de formes [HSI 98], l’étude du confort
thermique [EVI 02], etc.

10. Cette méthode est très intéressante pour cannibaliser/concurrencer un produit existant. En
revanche, elle n’est pas directement efficace pour innover : on reste en effet « piégé » dans
l’espace des descripteurs sensoriels proposés, qui sont définis a priori. Ainsi, toute solution
originale (innovation de rupture) qui sortirait de cet espace, c’est-à-dire qui générerait d’autres
sensations ou impressions, ne peut y être représentée.
90 La conception industrielle de produits 3

4.4. Exercice d’application

Etude sensorielle du son de fermeture de boîtiers de téléphones portables11.

4.4.1. Introduction

On considère les six descripteurs suivants (tableau 4.2), chargés de


définir les dimensions perceptives relatives à la qualité perçue du son de
fermeture du boîtier de téléphones portables.

Descripteur
Caractérisation du son de fermeture sec, net
feutré
vibrant
nerveux
sourd
aigu, métallique

Tableau 4.2. Six descripteurs du son de fermeture du boîtier d’un téléphone portable

Un panel d’experts a évalué huit téléphones selon ces descripteurs. Une


échelle métrique a été utilisée pour coder les évaluations.

4.4.2. Partie 1 : analyse en composantes principales

On propose d’analyser les évaluations des experts, en étudiant les


ressemblances entre les téléphones et les corrélations entre descripteurs. On
suppose que le panel d’experts est homogène ; les évaluations moyennes du
panel pour tous les descripteurs ont été calculées. Une analyse en
composantes principales normée du tableau des évaluations moyennes
croisant les huit individus (téléphones, notés de P1 à P8) et les six variables
(descripteurs) a été effectuée (figure 4.6).

11. Voir J.M. LOPEZ, A. GUENAND. « Study on subjective evaluation of perceived quality of flap
mobile phones and prediction of sensorial profil ». Proceedings of ICED 03, Stockholm, 2003.
Analyse sensorielle en conception de produits 91

Biplot (axes F1 et F2 : 86,63 %)

P6

2 vibrant nerveux

F2 (25,99 %)
1 P3
P5
P7 sourd
Aigu, métallique
0

P2
étouffé

-1 sec, net
P4

P1
P8
-2
-4 -3 -2 -1 0 1 2 3 4

F1 (60,64 %)

Figure 4.6. ACP normée des données sensorielles

Contributions des observations ( %) Cosinus carrés des observations


F1 F2 F1 F2
P1 39,824 14,501 0,848 0,132
P2 0,002 0,657 0,001 0,099
P3 19,657 6,417 0,750 0,105
P4 9,384 6,465 0,752 0,222
P5 1,931 3,079 0,251 0,171
P6 4,700 46,400 0,180 0,760
P7 7,449 0,554 0,555 0,018
P8 17,052 21,928 0,585 0,323

Tableau 4.3. Contribution des produits (individus) à la définition des axes de projection
(composantes principales)
92 La conception industrielle de produits 3

Vecteurs propres :
F1 F2
étouffé -0,465 -0,163
vibrant -0,139 0,682
nerveux 0,278 0,651
sec, net 0,439 -0,278
sourd -0,492 0,083
Aigu, métallique 0,502 0,003

Tableau 4.4. Contribution des variables à la représentativité de chacun des axes

4.4.2.1. Etude du plan factoriel des variables


1. Quel pourcentage d’inertie est pris en compte par les 2 premiers
facteurs ? On suppose que l’on ne considère pour la suite que les deux
premières composantes principales (CP1, CP2).
2. Quelles sont les variables les plus représentatives de F1 ?
3. Mêmes question pour F2.
4. Comment se caractérise un individu situé aux extrémités de l’axe F1 ?
5. Même question pour l’axe F2.

4.4.2.2. Etude du plan factoriel des individus (observations)


6. Etudier la contribution de chaque individu sur chaque composante
principale.
7. Quels sont les individus les plus représentatifs de F1 ? de F2 ?

4.4.2.3. Etude des corrélations descripteur sensoriel/mesures objectives


Afin de disposer d’une mesure objective des impressions sonores, deux
grandeurs ont été calculées à partir de l’enregistrement des signaux sonores
(« clap » de fermeture des clapets de portables) : sonie (sone), acuité (acum).
Les coefficients de corrélation sont donnés dans le tableau 4.5.

étouffé vibrant nerveux Sec, net sourd Aigu, métallique


sonie -0,735 0,312 0,922 0,186 -0,583 0,541
acuité -0,576 0,191 0,535 0,394 -0,764 0,807

Tableau 4.5. Corrélations entre les descripteur sensoriel et les mesures objectives
(les valeurs en gras sont significativement différentes de 0 à un niveau
de signification alpha = 0,05)
Analyse sensorielle en conception de produits 93

8. A quel(s) descripteur(s) sensoriel(s) ces mesures sont-elles


significativement corrélées ?
9. Quelles conclusions peut-on en tirer pour la conception et
l’évaluation de la qualité des produits ? A quoi vont servir ces mesures
instrumentales ?

4.4.3. Partie 2 : cartographie des préférences

Une étude hédonique a été menée sur des sujets des consommateurs
courants afin de connaître la préférence des clients sur les « claps » de
fermeture des boîtiers de portable.

Deux cents consommateurs ont attribué une note de préférence pour


chaque revêtement selon une échelle à neuf points : 9 : extrêmement
agréable ; 8 : très agréable ; 7 : agréable ; 6 : assez agréable ; 5 : ni agréable,
ni désagréable ; 4 : assez désagréable ; 3 : désagréable ; 2 : très désagréable ;
1 : extrêmement désagréable.

Une classification hiérarchique des sujets a conduit à la constitution de


quatre groupes homogènes de consommateurs A, B, C, D. Dans la suite de
l’étude, on cherche à interpréter les préférences des sujets à l’aide des scores
factoriels selon les descripteurs (les coordonnées des produits dans le plan
(F1, F2)).

4.4.3.1. Cartographie de préférences avec le modèle vectoriel

On recherche une préférence de la forme : Pi = a.F1i + b.F2i + c .

Pour chaque groupe de consommateur, la régression linéaire multiple a


fourni les résultats représentés dans le tableau 4.6.

Somme des Moyenne des


DDL carrés carrés R² F-ratio Pr > F
Groupe A 2 16,518 8,259 0,891 20,335 0,004
Groupe B 2 11,923 5,961 0,936 36,686 0,001
Groupe C 2 10,532 5,266 0,435 1,926 0,240
Groupe D 2 1,814 0,907 0,058 0,154 0,862

Tableau 4.6. Analyse de la variance


94 La conception industrielle de produits 3

10. Les régressions sont-elles significatives au seuil de 5 % ?


11. Indiquer toutes les raisons possibles pour lesquelles la régression
n’est pas significative.
12. Comment se caractérise un produit préféré par un consommateur du
groupe A (voir figure 4.8) ?
13. Même question pour le groupe B.

Carte des préférences

P6

Groupe A Groupe C
1 P3
P5
F2
P7
Groupe D
0
-3 -2 -1 0 1 2 3 4
P2

P4 -1
Groupe B

P1
P8
-2

F1

Figure 4.8. Cartographie externe des préférences

4.4.4. Eléments de corrigé de l’exercice

1. %F1 = 60,64 % - %F2 = 25,99 %. Deux dimensions principales


suffisent pour représenter 86 % de l’information. Les descripteurs sont donc
tous très corrélés.
2. Quelles sont les variables les plus représentatives de F1 : F1,
caractérisé par les descripteurs aigu, sec, opposé à sourd étouffé. Cet axe
oppose les sons « sourds » aux sons « secs ». P1 est extrême sur cet axe, il
est très sec-aigu. P8 est également extrême sur F1, il est très sourd-étouffé.
Analyse sensorielle en conception de produits 95

3. Mêmes questions pour F2 : F2, caractérisé par les descripteurs


vibrant – nerveux. P6 est extrême sur cet axe, il est très vibrant – nerveux.
Le son P2 est un son « moyen », proche du centre de gravité des individus.
4. Comment se caractérise un individu situé aux extrémités de l’axe
F1 ? Très sec-aigu ou très sourd-étouffé ?
5. Même question pour l’axe F2 très vibrant – nerveux.
6. Etudier la contribution de chaque individu sur chaque composante
principale. P1 et P3 contribuent majoritairement à créer l’axe F1. P1 est très
pesant sur cet axe 1, et pourrait masquer des différences plus subtiles entre
les autres produits. Il est conseillé de refaire une ACP sans ce produit P1. P6
et P8 contribuent majoritairement à créer l’axe F2. P6 est très pesant sur cet
axe F2, et pourrait masquer des différences plus subtiles entre les autres
produits. Il est conseillé de refaire une ACP sans ce produit P6.
7. Quels sont les individus les plus représentatifs de F1 : P1 et P3 ?; de
F2 : P6 et P8 ?
8. A quel(s) descripteur(s) sensoriel(s) ces mesures sont-elles
significativement corrélées ? Deux corrélations très fortes ressortent de
l’étude :
– sonie très corrélée à « nerveux ». Un son perçu comme « nerveux »
possède une forte intensité. Sonie anticorrélée avec étouffé : un son perçu
« étouffé » a une faible intensité. Ces corrélations sont toutes très logiques ;
– acuité très corrélée à aigu, et anticorrélée avec sourd. Un son avec une
forte acuité est perçu aigu, et très peu sourd. Tout ceci est logique et
cohérent ;
– il n’y a pas de corrélation avec sec-net, ni vibrant. Il serait intéressant
de savoir ce qui dans le signal acoustique, fait que le son est perçu comme
« sec-net » ou « vibrant ».
9. Quelles conclusions peut-on en tirer pour la conception et
l’évaluation de la qualité des produits ? A quoi vont servir ces mesures
instrumentales ? L’axe F1 semble lié à l’acuité, l’axe F2 à la sonie. Ces
corrélations pourraient être utilisées pour concevoir un nouveau produit et
qualifier le ressenti sur « nerveux » et « aigu » sans faire de tests sensoriels
qui sont coûteux.
10. Les régressions sont-elles significatives au seuil de 5 % ? Oui pour
groupes A et B.
11. Indiquer toutes les raisons possibles pour lesquelles la régression
n’est pas significative.
96 La conception industrielle de produits 3

12. Comment se caractérise un produit préféré par un consommateur du


groupe A ? (Voir figure 4.8 et tableau 4.7).
13. Même question pour le groupe B (idem).

Conclusions

Groupe A Très Bon ajustement du modèle. Le groupe A apprécie les sons sourds et
étouffés (P6, P7), plutôt « vibrant »

Groupe B Très Bon ajustement du modèle. Le groupe B apprécie les sons sourds et
étouffés (P8, P4), plutôt « pas vibrant »

Groupe C Mauvais ajustement du modèle. Il faudrait essayer un modèle plus


complexe, par exemple circulaire.

Groupe D Très Mauvais ajustement du modèle. Il faudrait essayer un modèle plus


complexe, par exemple circulaire.

Tableau 4.7. Caractérisation des produits de chacun des groupes


CHAPITRE 5

Analyse des phénomènes physiques

5.1. Objectif général

L’objectif de ce chapitre est d’intégrer les attentes utilisateurs dans les


cahiers des charges fonctionnels et les modèles de prédimensionnement. A
cette fin, nous allons lier les caractéristiques sensorielles aux grandeurs
physiques pertinentes des fonctions mises en jeu. Nous allons procéder à la
qualification des caractéristiques sensorielles pertinentes en associant
moments significatifs et phases de situations de vie. Puis nous réduirons ces
grandeurs physiques aux variables de conception et aux critères
d’appréciation. Enfin nous associerons variables sensorielles, variables de
conception et critères d’appréciation [DOR 04].

Nous appliquerons cette méthode au cas du virage de base en ski


parabolique. Le synoptique proposé sur la figure 5.1 récapitule la totalité de
la démarche.

5.2. Moments significatifs et situations de vie

La notion de situation de vie a un défaut, elle ne peut, à cause de la


faiblesse de la sémantique liée à sa description, que décrire une phase
statique. Cela ne suffit pas car, le plus souvent, le problème, fruit de
successions d’événements élémentaires, est dynamique.

Chapitre rédigé par Jérôme PAILHES et Jean-Pierre NADEAU.


98 La conception industrielle de produits 3

A l’instar de l’analyse sensorielle, nous nommons ces évènements :


moments significatifs [DOR 05]. Le GRAFCET est un outil facile
d’utilisation pour représenter la séquencialité de ces moments (figure 5.2). Il
permet à la fois d’exprimer la succession des moments et de définir les
paramètres qui conditionnent les passages de l’un à l’autre.

Ces paramètres de transition devront se retrouver dans l’écriture des lois


physiques que nous définirons par la suite.

Sensoriel Produit & Situation de Vie Conception

Description du domaine d’étude

Caractéristiques Sensorielles &


Fonctions
Moments Significatifs

Identification des Descripteurs Identification des GP

Grandeurs physiques (GP)


Descripteurs
pertinentes

Réduction des Descripteurs Réduction des GP

Variables de Conception (VCo)


Variables Sensorielles (VS)
& Variables Critères (VCr)

Quantification des VS Quantification des VCo & VCr

Variables de Conception &


Variables Sensorielles
Variables Critères
quantifiées
quantifiées

Recherche de relations

Relations entre Variables


Sensorielles et Variables de
Conception ou Variables Critères

Figure 5.1. Récapitulation de la démarche

La figure 5.2 montre la succession des moments significatifs : préparation,


déclenchement et conduite du virage. Le passage d’un moment significatif à
un autre correspond à un geste technique du skieur.
Analyse des phénomènes physiques 99

0 Moment significatif 0

-- Transition a

1 Moment significatif 1

-- Transition b

2 Moment significatif 2

-- Transition c

3 Moment significatif 3

-- Transition d

Figure 5.2. GRAFCET des moments significatifs

Les sensations qu’éprouve l’utilisateur d’un produit font appel aux cinq
sens et à la somesthésie [DOR 07a]. La somesthésie est associée au retour
d’effort. La somesthésie est la sensibilité aux diverses excitations subies
par le corps, à l’exception de celles provenant des organes sensoriels. Elle
comprend les sensations extéroceptives (tact, pression, chaud, froid), les
sensations proprioceptives (musculaires et tendineuses) et les sensations
douloureuses. Ces sensations sont liées en partie au contrôle que
l’utilisateur peut effectuer sur l’accomplissement de la fonction désirée.

A chaque étape, le contrôle et la transition sont assurés par l’utilisateur


qui récupère des sensations somesthésiques, visuelles et auditives. Les
sensations somesthésiques sont directement liées au transfert d’effort donc
à la liaison entre le skieur et les skis.

FC2
skieur

ski
FS1 pente
FC1 neigeuse

Figure 5.3. Situation de vie : virage de base


100 La conception industrielle de produits 3

Une action fonctionnelle peut être associée à chaque moment


significatif. L’identification des fonctionnalités se fait à partir de l’analyse
systématique des milieux environnants (syntaxe APTE). Ainsi, on peut
exprimer les fonctions de service (FS) et les fonctions contraintes (FC)
afférentes à la situation de vie considérée. Pour la situation de vie « virage
de base », les interactions entre le ski et les milieux extérieurs skieur et
pente neigeuse (figure 5.3) permettent d’identifier les fonctions suivantes
[DOR 07b] :
– FS1 : permettre au skieur de virer sur la pente neigeuse,
– FC1 : éviter le glissement radial,
– FC2 : pouvoir être piloté par le skieur.

5.3. Recherche des variables sensorielles VS

Le domaine sensoriel regroupe les sensations mises en jeu et générées par


le produit puis perçues par l’utilisateur durant une situation de vie. La notion
de caractéristique sensorielle est utilisée par les spécialistes de l’analyse
sensorielle [DEP 98, MEI 99]. Cependant ils ne fournissent pas de méthode
générale pour les identifier de façon exhaustive. Les méthodes étudiées dans
les chapitres précédents peuvent participer à l’énumération et au choix des
caractéristiques sensorielles pertinentes. Une approche verbo-
comportementale peut être utilisée (brainstorming, discussion de groupe,
expert opinion) et corrélée au découpage en moments significatifs et
associée à la vision fonctionnelle. Dans le cas du virage de base, les
variables exprimées et réduites sont l’efficacité, l’accroche et la maniabilité.
Ces variables correspondent aux fonctions de premier niveau déjà
exprimées :
– efficacité : FS1, permettre au skieur de virer sur la pente neigeuse,
– accroche : FC1, éviter le glissement radial,
– maniabilité : FC2, pouvoir être piloté par le skieur.

5.4. Identification des grandeurs physiques pertinentes

Afin de définir les grandeurs physiques que l’on peut associer aux
caractéristiques sensorielles, il faut identifier les flux fonctionnels utiles et
induits par la satisfaction des fonctions de premier niveau. A cette fin,
plusieurs outils sont à notre disposition, la redondance d’une partie de ces
Analyse des phénomènes physiques 101

outils assure l’exhaustivité de l’analyse. Les outils que nous préconisons


regroupent :
– l’organigramme technique du produit étendu aux milieux extérieurs ;
– la première loi d’évolution des systèmes techniques ;
– le bloc diagramme fonctionnel impliqué dans l’analyse ;
– des tableaux d’analyse physique ;
– les lois physiques :
– lois de conservation (masse, énergie, quantité de mvt, moment
cinétique),
– lois de comportement liées aux composants.

Un système fait intervenir plusieurs composants regroupés dans


l’organigramme technique étendu aux milieux extérieurs [SCA 05]. Selon la
précision recherchée, plusieurs niveaux seront définis (figure 5.4).

Figure 5.4. Organigramme technique étendu du ski

La réalisation d’une fonction implique la transformation d’une énergie.


La première loi d’évolution des systèmes techniques permet de définir un
composant moteur, un transmetteur et l’opérateur qui réalise l’action. La
figure 5.5 donne le moteur (ski), le transmetteur (interface ski/neige) et
l’opérateur (neige) concernant la satisfaction de la fonction FC1. En effet,
c’est l’action de contact entre la neige et le ski qui empêche le ski de glisser
(figure 5.6).

Figure 5.5. Loi d’intégralité des parties pour la fonction FC1


102 La conception industrielle de produits 3

en ez

α er
α
ey
et ex
Figure 5.6. Action de contact neige/ski

Dans ce cas précis, nous avons des comportements différents du ski selon
la localisation du contact sur le ski. Nous devons compléter l’analyse en
descendant au niveau 1 de la décomposition du système (figure 5.4) pour
discriminer le comportement de la spatule, du talon et du patin du ski.

Toute action génère des effets induits. Nous proposons des aides pour
définir les effets produits et induits que l’on retrouve dans la référence
[NAD 06]. Dans notre exemple, le flux fonctionnel mécanique, permettant
l’accroche du ski, génère la déformation du ski en flexion et torsion
(statique) ainsi que des vibrations parasites (dynamique).

Le tableau 5.1 récapitule, pour le moment significatif « déclenchement »,


les effets générés et les qualifie (utile ou nuisible).

Moment significatif Type d’effet induit


1_ Déclenchement : FC1
action de contact, flexion de la spatule et du talon effet utile : conduite du virage
action de torsion effet nuisible, perte de contact
vibrations effet nuisible, sensations désagréables

Tableau 5.1. Moment significatif et effets induits, fonction FC1

Le bloc diagramme fonctionnel permet de traduire l’évolution des flux


fonctionnels à travers les composants du niveau considéré. La figure 5.7
Analyse des phénomènes physiques 103

précise la répartition des flux d’énergie mécanique pour la fonction FC1 et


dissocie les effets selon la localisation.

Figure 5.7. Action de contact neige/ski

Afin de déterminer les grandeurs physiques pertinentes, il faut exprimer


les lois de conservation de l’énergie pour les fonctions considérées. Dans
notre cas de fonction contrainte, il s’agit simplement de définir l’action de
liaison aux interfaces et les effets qu’elle induit soit :

Expression des actions de contact pour chaque interface :


r r r r
Aneige / ski = Aneige
r
/ sk e r + Aneige / sk et + Aneige / sk e n
t n
(5.1)

Condition de non glissement pour la caractéristique sensorielle accroche :

/ ski < Aneige / sk k lim ite


r n
Aneige (5.2)

Le tableau 5.2 récapitule les grandeurs identifiées.


104 La conception industrielle de produits 3

Grandeurs physiques : spatule et talon Notation


Flèche f
Module d’élasticité longitudinale E
Moment quadratique de flexion Irr
Angle de torsion b
Module d’élasticité transversale G
Moment quadratique de torsion Ixx
Premier mode propre de vibration Ω

Tableau 5.2. Grandeurs physiques pertinentes

Les actions de contact participent à l’équilibre du ski et interviennent


dans l’expression des différents moments. Les moments sont directement
liés aux déformations de flexion (flèche de la spatule et du talon) et aux
déformations de torsion (rotation de la spatule et du talon). Ces effets sont
statiques et sont utiles ou nuisibles à l’accroche.

Les effets induits utiles : la flexion de la spatule (voir l’équation 5.3 du


moment de flexion) et du talon (voir l’équation 5.4 du moment de torsion)
favorisant la conduite du virage.

d2 f
M rr = EI rr (5.3)
dx 2
Les effets induits nuisibles : la rupture de contact par déformation de
torsion de la spatule et du talon modifie la stabilité du ski.

M xx = GI xx β (5.4)

De surcroît, ces effets génèrent des effets dynamiques qui modifient les
sensations. Nous les exprimons par le premier mode de vibration.

5.5. Réduction des grandeurs physiques pertinentes aux variables de


conception VCo et aux critères Cr

Nous cherchons à réduire le nombre de grandeurs physiques, pour cela


nous allons les exprimer en fonction des variables de conception et des
critères de qualification et d’appréciation des fonctions.
Analyse des phénomènes physiques 105

Figure 5.8. Définition d’un ski

Les variables de conception (VCo) définissent le produit au stade de la


conception préliminaire, elles permettent de différencier deux solutions
différentes. Les critères d’appréciation (Cr) sont définis par les cahiers des
charges et les procédures de qualification, ils dépendent des VCo. Si une
grandeur physique s’exprime en fonction de critères et de variables de
conception, c’est une variable auxiliaire et elle n’est pas pertinente.

Le ski est défini par ses dimensions géométriques et sa constitution


(multimatériaux). Au stade de la conception préliminaire et au niveau
systémique choisi, les dimensions concernent les largeurs à la spatule et au
talon et la longueur de contact. Le multimatériau sera défini par deux
modules d’élasticité longitudinale moyen de la spatule et du talon. La
figure 5.8 précise les cotes du ski.

Par exemple dans notre cas, nous pouvons lier la flèche globale du ski à
une caractéristique géométrique, critère de discrimination des skis, notée T
et appelée « taille de guêpe ». Elle est liée aux variables de conception
largeurs de la spatule et du talon et définie par la relation :

lspatule − ltalon
T= (5.5)
2
106 La conception industrielle de produits 3

La flèche f s’exprime :

f = Ttg α (5.6)

Elle peut donc être remplacée par la taille de guêpe T car l’angle de carre
α est une variable directement liée à la situation de vie « virage ».

Les deux moments quadratiques et les deux premiers modes de vibration


pour la spatule et le talon constituent des critères discriminant les
comportements de chaque ski.

Les effets de torsion sont du second ordre quant à leur influence. Le


tableau 5.3 donne la réduction des variables et sépare les variables de
conception des critères d’appréciation.

Critères Variables de conception


Taille de guêpe Longueur de contact
Moment quadratique de flexion spatule Module d’élasticité longitudinale spatule
Premier mode propre de vibration spatule Module d’élasticité longitudinale talon
Moment quadratique de flexion talon
Premier mode propre de vibration talon

Tableau 5.3. Critères et variables de conception, fonction FC1

5.6. Quantification des variables pertinentes

La quantification, au stade de la conception préliminaire, des variables


sélectionnées fait appel à des techniques de réduction de modèle pour
atteindre des modèles parcimonieux adaptés. La parcimonie du modèle
concerne le nombre de variables et la facilité d’utilisation du modèle. On
peut utiliser l’analyse dimensionnelle, des modèles analytiques préintégrés,
des réseaux de neurones, etc.

Si on est au stade de tests comparatifs et de reconception, alors


l’expérimentation aidée de plans d’expérience permet de qualifier les
variables.

Dans le cas des skis, nous avons réalisé des essais de flexion et ainsi
évalué des moments quadratiques et les modules d’élasticité longitudinale
moyens (figure 5.9).
Analyse des phénomènes physiques 107

La fréquence du premier mode propre de vibration a été ensuite évaluée à


partir de l’analogie classique issue de la fréquence de vibration d’une masse
accrochée à un ressort.

Figure 5.9. Essais comparatifs de flexion

5.7. Recherche des relations entre les VCo, Cr et les variables


sensorielles VS

A ce stade, nous avons à notre disposition les résultats de l’analyse


sensorielle associant des variables sensorielles, notées sur une échelle de
cotation, à chaque produit évalué. Nous avons maintenant réduit les
variables pertinentes du comportement du produit. On peut alors traiter ces
informations et lier les variables sensorielles (VS) aux critères (Cr) et aux
variables de conception (VCo). Les relations f(VCo, Cr, VS) obtenues
pourront alors être directement utilisées en conception.

Les outils mathématiques à notre disposition pour rechercher les relations


sont les outils de la logique floue, les réseaux de neurones, les régressions
multiples et les courbes de tendances.

Compte tenu du nombre réduit de données, nous avons choisi de les


traiter par régression linéaire multiple.

Chaque série de régression se déroule comme suit :


– calcul de toutes les régressions à un facteur (autant que de Cr et VCo),
108 La conception industrielle de produits 3

– conservation de la régression la plus significative,


– ajout d’un second facteur (une autre Cr/VCo que celle qui a donné la
meilleure régression à un facteur),
– calcul de toutes les régressions à deux facteurs,
– conservation de la régression à deux facteurs la plus significative,
– ajout d’un troisième facteur (une autre Cr/VCo que celles qui ont donné
la meilleure régression à deux facteurs),
– ainsi de suite jusqu’à ce que la régression ne soit plus significative.

Comme le montre le tableau 5.4, seule la régression linéaire à un facteur


obtenue avec la longueur de contact est de bonne qualité. Nous pouvons
donc en conclure que c'est la longueur du ski qui a le plus d'influence sur
l'accroche.

Meilleure Coefficient de détermination Cr et VCo concernées


régression
linéaire multiple
A1 facteur 41,6 % Longueur de contact
Longueur de contact
A 2 facteurs 51,1 % Premier mode de vibration
talon
Longueur de contact
Premier mode de vibration
A 3 facteurs 59,7 % talon
Moment quadratique de
flexion spatule
A 4 facteurs Toutes les régressions multiples sont non
significatives

Tableau 5.4. Meilleures corrélations multiples pour la VS accroche

5.8. Conclusion

Nous avons présenté une démarche structurée pour lier les critères
utilisateurs aux variables de conception et ainsi faciliter leur prise en compte.
Cette démarche s’appuie sur des outils d’analyse (organigramme technique
étendu aux milieux extérieurs, première loi d’analyse des systèmes
techniques, bloc diagramme fonctionnel, tableau d’analyse des phénomènes
physiques) afin de réduire le temps d’étude et de fiabiliser l’analyse. Enfin,
l’expression des critères et des lois physiques concernées en fonction des
grandeurs physiques pertinentes et des variables de conception nous donne
Analyse des phénomènes physiques 109

les relations qui décrivent la situation réelle. Puis, on réduit chaque grandeur
physique en l’exprimant, si possible, en fonction des variables de
conception.

Les relations obtenues sont utilisées pour la définition du système en


adéquation avec les attentes utilisateurs. Ainsi, une fois les attentes
utilisateurs identifiées proprement, il est alors possible de les traiter de la
même manière que toute autre contrainte du cahier des charges.

5.9. Exercice d’application

5.9.1. Mise en situation

L’exercice concerne le téléphone « foldable ». La figure 5.10 définit les


composants actifs du téléphone lors de sa fermeture. Ce type de téléphone
se ferme automatiquement à partir d’un certain angle de fermeture. Le
concept utilisé est classique, il s’agit d’un doigt qui pousse sur une came.
Ce doigt est mû par un ressort dont la détente est possible lorsque la came
liée au clapet du téléphone passe devant lui (la came est un cône de
profondeur h et d’angle α). La première photographie (figure 5.10) montre
la came liée complètement au clapet, la deuxième précise le mécanisme de
transmission d’effort et la troisième présente l’implantation du guide sur le
support. On remarque aussi sur cette troisième photographie la came
implantée dans le clapet (découpé partiellement). Le schéma en coupe
permet de comprendre que la translation du doigt génère la rotation de la
came et du clapet.

Rotation
support clapet came doigt guide ressort
Translation
doigt

Doigt en appui
ponctuel avec la came

Came en liaison Doigt en liaison Guide en liaison


glissière avec le guide Action du ressort
complète avec le clapet complète avec le support
sur le doigt

Figure 5.10. Composants impliqués dans la fermeture du téléphone


110 La conception industrielle de produits 3

Des tests auprès d’utilisateurs de téléphone ont permis de définir des


critères d’appréciation. Une comparaison des différents téléphones est alors
possible. Les utilisateurs définissent leurs vœux concernant l’effort et l’angle
de fermeture ainsi que la vitesse de rotation de l’écran. Le tableau 5.5 précise
les critères d’appréciation (Cr) intervenant lors de la fermeture automatique :
angle et vitesse de rotation de l’unité d’écran. L’effort de fermeture ou
d’ouverture (récepteurs somesthésiques) n’est pas pris en compte car il
n’intervient pas lorsque le téléphone se ferme automatiquement.

Dans la situation de vie « fermeture », l’unité écran manœuvrée par la


main de l’utilisateur (déblocage et conduite) permet au ressort de se détendre
(échappement) et de déplacer le doigt qui assure alors la rotation du clapet
(donc de l’unité d’écran) via la came. A chaque étape, le contrôle et la
transition sont assurés par l’utilisateur qui récupère des sensations
somesthésiques, visuelles et auditives.

Les récepteurs mis en jeu lors des transitions des deux premiers moments
significatifs (déblocage et conduite) sont des récepteurs somesthésiques. A
contrario, pour le moment significatif « échappement », il n’y plus de
contact entre l’index de l’utilisateur et l’unité d’écran et aucun récepteur
sensoriel vient en relève. La vue et l’ouïe sont bien excitées mais ne
permettent pas d’action corrective de contrôle (rapidité de l’échappement et
bruit présent qu’en fin de fermeture).
Ouverture Fermeture
Critère d’appréciation Cr
Angle position écran/support ψ ψo ψf
Vitesse de rotation à un angle donné θ dθ o / dt dθ f / dt

Tableau 5.5. Critères d’appréciation de l’utilisateur

L’organigramme technique du produit étendu aux milieux extérieurs est


donné en figure 5.11.
Téléphone foldable Index utilisateur Main utilisateur

Unité clavier Unité écran

support guide ressort doigt came clapet écran

Figure 5.11. Organigramme technique étendu du téléphone foldable


Analyse des phénomènes physiques 111

5.9.2. Enoncé de l’exercice

1. Compléter le grafcet des moments significatifs fournis figure 5.12.

1 Rotation du clapet

Figure 5.12. GRAFCET des moments significatifs pour la fonction


« fermer le téléphone » à compléter

2. Exprimer la première loi d’évolution des systèmes techniques pour


identifier les composants et les flux fonctionnels concernés par le moment
significatif « échappement ».

3. Définir les phénomènes physiques mis en jeu et grandeurs physiques


pertinentes pour la phase « échappement ».

Les différents mouvements dépendent du flux fonctionnel d’énergie


mécanique.

Les figures 5.13 et 5.14 présentent les variables de conception de ces


parties du téléphone.

Rψf
Rθ Ressort détendu
α
x O xO
h A 0
y TA
NA C
A
r
B
Action x
θ=0 θ
ressort
y

R : rayon de la came α : angle de la came θ0 : position de la came h : profondeur came


r : rayon du doigt k : raideur du ressort x0 : position à vide du ressort

Figure 5.13. Evolution du doigt durant la fermeture et actions de contact


112 La conception industrielle de produits 3

θ=0

r
θ z

Mg
ψ -θ y
x

Figure 5.14. Unité d’écran

f Coefficient de frottement r Rayon du doigt


flèche Flèche du ressort R Rayon de la came

F Force (Re )g Limite élastique tangentielle

g Accélération de la pesanteur T Effort tangentiel


h Profondeur x Abscisse

I Moment d’inertie quadratique grecques

k Raideur α Angle de la came

M Masse θ Position de la came

N Effort normal ψ Angle écran/clavier

Tableau 5.6. Notations proposées

4. Exprimer les relations liant les critères et variables de conception à partir


de l’expression des lois de conservation appliquées aux entités concernées.

5. Donner les grandeurs physiques pertinentes.

6. Réduire les grandeurs physiques pertinentes aux variables de conception


VCo et aux critères Cr.

7. Conclure.
Analyse des phénomènes physiques 113

5.9.3. Correction

1. Grafcet des moments significatifs :

0 Déblocage
Appui de l’index de l’utilisateur, récepteurs somesthésiques

1 Conduite

Appui de l’index de l’utilisateur, récepteurs somesthésiques

2 Echappement
Plus de contrôle du système

Figure 5.15. GRAFCET des moments significatifs pour la fonction « fermer le téléphone »

2. Loi d’intégralité des parties pour la fonction « fermer le téléphone »,


phase échappement :

Energie Ressort Doigt Came Fermer le


mécanique téléphone

Conception

Figure 5.16. Première loi d’évolution des systèmes techniques

La came est en liaison complète avec l’unité d’écran.

C’est la conception du système qui permet de définir la vitesse de


fermeture.

3 et 4. Phénomènes physiques et relations liant les critères et les variables de


conception.
Critère angle de fermeture : ψf

h sin α − r cosα
ψf ≅ (5.7)
R
114 La conception industrielle de produits 3

Critère vitesse de rotation de l’unité écran dθ f / dt : impose l’expression


des lois de conservation de la quantité de mouvement pour chaque entité
(moteur, transmetteur, opérateur).

Conservation de la quantité de mouvement du moteur : équilibre du


ressort (somme des forces en projection sur l’axe x).

Fressort = k ⋅ flèche (5.8)

Conservation de la quantité de mouvement du transmetteur : équilibre du


doigt (somme des forces en projection sur l’axe x).

TA = N A ⋅ f (5.9)

k ⋅ flèche − 2 N A sin α − 2 TA cos α − TB − TC = 0 (5.10)

Conservation de la quantité de mouvement de l’opérateur : équilibre de


l’unité d’écran (somme des moments en projection sur l’axe x).

d 2θ
2 N A R cos α − 2 TA R sin α ± Mgr cos(ψ − θ ) = I (5.11)
dt 2

Si on néglige les effets du frottement entre came et doigt et la masse de


l’unité d’écran, la relation (5.11) devient :

d 2θ
2 N A R cos α = I (5.12)
dt 2

5. Les grandeurs physiques pertinentes sont alors :

Grandeurs physiques Notations


Flèche du ressort flèche
Raideur du ressort k
Moment d’inertie de l’unité d’écran I

Tableau 5.7. Grandeurs physiques pertinentes pour le dimensionnement


des pièces du système de fermeture
Analyse des phénomènes physiques 115

6. Réduction des grandeurs physiques et expression des critères :


La flèche peut s’exprimer :


flèche = x 0 − + r sin α − r (5.13)
tgα

A partir des relations précédentes et par intégration de (5.12) :

dθ f B ⎡ ⎛ Aψ f ⎞ ⎤
= sin ⎢ Arc cos⎜⎜1 − ⎟⎥
dt A ⎣ ⎝ B ⎟⎠ ⎦

Avec : A = kR et B = k (x + r sin α − r ) (5.14)


I (tgα ) Itgα
2 0

5.10. Conclusion de l’exercice

Les deux critères ψf et dθ f / dt (équations 5.7 et 5.14) sont exprimés en


fonction, exclusivement, des quatre variables de conception R, α, r et h et
des deux grandeurs physiques k et I. Les attentes utilisateurs peuvent ainsi
rapidement donner lieu à la définition de téléphones différents en conception
préliminaire. On peut remarquer que le système ainsi obtenu est à six degrés
de liberté, la hiérarchisation des choix se fera à l’aide d’autres contraintes.
DEUXIÈME PARTIE

Exploration de l’espace de conception


et conception optimale

Partie coordonnée par Nadège TROUSSIER.


CHAPITRE 6

Exploration de l’espace de conception


par construction de modèles approximés

6.1. Introduction

Cette partie s’intéresse aux outils et méthodes utilisés pour l’évaluation


des performances du produit tout au long du processus de conception, afin de
prendre des décisions sur les meilleures orientations à poursuivre pour la
définition du produit.

Cette partie introductive définit le vocabulaire utilisé et positionne la


problématique de la prise de décision en relation avec la maîtrise des
performances.

Ensuite, une évaluation des différentes performances envisagées est


nécessaire en utilisant soit des méthodes spécifiques reconnues lorsque la
définition du produit est compatible avec la mise en œuvre de ces méthodes,
soit par l’utilisation d’un méta-modèle, détaillé dans la suite.

Des techniques d’exploration de l’espace de conception permettent alors


de tenir compte de l’étendue du domaine de variabilité de la conception,
d’une part, et des incertitudes associées aux paramètres du système, d’autre
part. Ces techniques sont basées sur l’analyse de la robustesse et de la

Chapitre rédigé par Nassim BOUDAOUD.


120 La conception industrielle de produits 3

fiabilité, en vue de garantir un produit conforme dont la probabilité de


déviation et/ou de défaillance est bien maîtrisée.

6.1.1. Processus de conception de produits techniques

Le processus de conception est constitué d’un ensemble de décisions


prises à partir de l’évaluation des solutions proposées par rapport au cahier
des charges, lui-même évolutif et défini au cours de la conception. Il peut
être décomposé en plusieurs phases. Selon le processus de conception
préconisé par Pahl et Beitz [PAH 03], la conception préliminaire consiste à
décrire les concepts de solutions les plus pertinents vis-à-vis du cahier des
charges. Ensuite, parmi cet ensemble de possibilités, un concept est retenu et
défini plus en détail afin d’évaluer ses performances. Lorsque celles-ci sont
jugées insatisfaisantes (dans un contexte où les performances elles-mêmes
évoluent au cours du temps), le choix du concept ou les choix relatifs à sa
définition peuvent être remis en cause.

La conception se conduit alors selon une démarche essai-et-erreur, ne


garantissant pas que la solution mise au point soit la meilleure des solutions
possibles. Cependant, le contexte concurrentiel actuel pousse à aller plus loin
dans la maîtrise des performances des produits et à formuler un vœu pieux
mais très illustratif : « être capable de concevoir des produits dont
l’endurance est sans limite, la fiabilité sans compromis, la performance
maîtrisée et optimisée ». Si cet objectif semble difficile à atteindre, les outils
et méthodes proposés dans cette partie s’inscrivent dans cette perspective et
nécessitent de connaître le comportement des systèmes techniques à
concevoir. Les moyens envisagés dans cette partie pour une meilleure
connaissance des comportements des systèmes se basent sur la recherche
d’une expérimentation optimisée (minimum d’essais ou de calculs). Les
expérimentations ou calculs nécessaires à l’évaluation quantitative des
performances étudiées sont spécifiques à ces performances. Ils sont
spécifiques au type de performance considéré et ne feront pas l’objet de
développements spécifiques dans cet ouvrage. En d’autres termes, nous ne
nous focaliserons pas sur l’évaluation de performances particulières mais sur
l’évaluation de la conception à partir de l’évaluation de chacune des
performances à atteindre. Il s’agit donc d’une approche globale et
multidisciplinaire, tenant compte des incertitudes et variabilités relatives à la
fois au contexte de conception et à l’environnement de fonctionnement du
système.
Exploration de l’espace de conception 121

6.1.2. Maîtrise des performances du produit

Dans le processus de conception, une partie du travail à réaliser consiste à


mettre en relation des performances à atteindre avec des solutions techniques
décrites sous la forme d’un ensemble de paramètres nommés paramètres de
conception et qui sont en relation à travers le comportement du système à
concevoir, c'est-à-dire par les réponses fournies par le système à des
sollicitations extérieures.

La maîtrise des performances revient alors, à connaître l’impact de


chaque paramètre de conception sur les performances, et donc à maîtriser le
comportement du système. Pour certaines performances techniques, des
méthodes d’évaluation existent pour connaître l’impact de quelques
paramètres de conception sur quelques performances techniques. Cependant,
dans le cadre de la conception de systèmes complexes (mettant en œuvre des
systèmes mécaniques, électroniques, informatiques, etc.), maîtriser
globalement le comportement du système est un exercice difficile nécessitant
d’utiliser des outils et méthodes adaptés à une analyse multidisciplinaire et
globale du système. En d’autres termes, ceci revient à représenter le système
sous la forme d’un méta-modèle qui émule le comportement du système
conçu (maquette numérique, prototype ou produit) en termes de performance
globale en fonction des paramètres de conception définissant le système.

Une fois ce méta-modèle identifié, il peut être utilisé pour analyser les
solutions de conception dimensionnées en fonction des critères spécifiés. On
distinguera en particulier un critère d’optimalité des performances (trouver la
solution qui donne le meilleur niveau de performance), un critère de
robustesse des performances (trouver la solution pour laquelle les
performances sont les plus stables), un critère de fiabilité des performances
(trouver la solution pour laquelle la probabilité de défaillance est la plus
faible pour une durée de vie spécifiée).

On distinguera alors deux étapes. La première, l’étape d’exploration,


consiste à utiliser le méta-modèle du système et le contraindre par les
limitations physiques et technologiques pour identifier l’ensemble des
conceptions possibles ou solutions faisables. Etant donné cet ensemble de
paramètres de conception, un espace des performances atteignables peut être
construit. L’analyse de ces deux ensembles, nommée exploration de l’espace
de conception permet de connaître la dimension de l’espace de conception et
celle de l’espace des performances et leur évolution au fur et à mesure de
122 La conception industrielle de produits 3

l’évolution du processus de conception, à chaque choix de conception


effectué. La seconde étape est l’étape de résolution quand, à partir de la
formulation de critères de performance (niveaux et types des performances à
atteindre) ; elle consiste à identifier, dans l’espace de conception, les
solutions optimales, robustes et/ou fiables.

La figure 6.1 schématise, relativement au processus de dimensionnement


préliminaire, le positionnement :
– de la phase de méta-modélisation,
– des étapes d’exploration et de résolution.

Les performances du système (réel ou numérique) sont obtenues par des


fonctions implicites et complexes en termes de paramètres de conception ;
ces fonctions reflètent le comportement du système et sont souvent appelées
« modèle de comportement ». Pour un système réel ou numérique,
l’évaluation du modèle de comportement est souvent très coûteuse, en temps
et/ou en moyens financiers. Cette difficulté est résolue par l’élaboration d’un
méta-modèle qui simule le comportement du système réel. Un méta-modèle
est composé d’un modèle approché, comme par exemple les surfaces de
réponse, et de contraintes associées. Le méta-modèle fournit une évaluation
approchée des performances du système étudié, tout en contrôlant la précision.
Ces performances sont ensuite introduites dans des critères spécifiques afin de
permettre la recherche des solutions optimales, robustes et fiables.

Figure 6.1. Méta-modélisation, exploration et résolution


Exploration de l’espace de conception 123

Pour illustrer ces propos, prenons l’exemple d’un système technique


complexe, un moteur automobile. Il s’agit d’un produit mettant en œuvre des
physiques différentes (mécanique, chimie, thermodynamique, thermique,
etc.), et qui doit répondre à des performances techniques (couple,
consommation, pollution, etc.) mais aussi à des performances liées à
l’activité de conduite (bruit, réactivité, etc).

S’il existe des modèles de comportement permettant d’évaluer


indépendamment chacune des performances, il est difficile d’avoir une
vision globale du système et de l’impact de chaque paramètre de conception
du moteur sur l’ensemble des performances à la fois. La première étape est
alors d’être capable de construire le méta-modèle permettant de lier
l’ensemble des paramètres de conception considérés à l’ensemble des
performances à traiter.

6.2. Construction de méta-modèles de comportement

Dans cette partie nous nous intéressons à la construction du méta-modèle.


La construction du méta-modèle consiste à identifier une relation
fonctionnelle dont la structure est définie a priori entre les paramètres de
conception considérés et les caractéristiques de performances traitées. Cette
forme fonctionnelle est généralement polynomiale de la forme :
m m m
y ( X ) = a0 + ∑ ai X i + ∑∑ a jk X j X k + ∑ aii X i2 + ... + ε (6.1)
i =1 j =1 k > j

Où :
– aii et aij représentent les paramètres du modèle à identifier,
– Xi désigne le niveau attribué au facteur i,
– ε désigne le résidu de calcul entre les valeurs d’essais et les valeurs
estimées à partir du modèle mathématique. Ce résidu est généralement
supposé normalement distribués (par exemple : distribué statistiquement
selon la loi normale).

L’intérêt de modéliser la réponse par un polynôme est de pouvoir utiliser


tous les résultats de l’algèbre matricielle. Il est possible d’utiliser d’autres
fonctions mathématiques ; toutefois, l’usage montre que les polynômes
permettent de résoudre la plupart des problèmes.
124 La conception industrielle de produits 3

L’identification du méta-modèle nécessite la conduite d’un ensemble


d’essais numériques ou réels. Ces essais permettent de décrire l’impact des
paramètres de conception sur les performances. En fonction de la forme
fonctionnelle du méta-modèle, différentes stratégies peuvent être considérées
pour définir ces essais. Les plans d’expériences constituent l’une des
stratégies permettant une optimisation du nombre d’essais et leur répartition
dans l’espace de conception.

Lorsque une table comportant n essais est réalisée, chaque essai fournit
une valeur de la réponse y. L’ensemble des essais ainsi réalisé permet de
définir un système à n équations à partir du méta-modèle postulé (voir
équation 6.1) sous la forme suivante :

Y = X ⋅p + ε (6.2)

Où :
– Y désigne le vecteur des n réponses, Y = [y1,..,yn]t,
– p désigne les vecteur des paramètres du méta-modèle,
p = [a0,a1,…aij,..,aii,…]t.

La résolution directe de ce système algébrique est généralement


impossible car le nombre d’essais est inférieur au nombre d’inconnues du
modèle. La méthode généralement adoptée pour la résolution est la
régression linéaire qui est généralement basée sur la méthode des moindres
carrés. Par cette méthode, une estimation des coefficients du méta-modèle,
notée p̂ , est obtenue sous la forme algébrique suivante :

(
pˆ = X t ⋅ X )
−1
⋅ X t ⋅Y (6.3)

Où :
– X désigne la matrice de calcul qui dépend du méta-modèle postulé et
des points expérimentaux choisis.

Cette estimation n’est généralement possible que si la matrice (X t ⋅ X ),


appelée matrice d’information est inversible. Pour garantir cette propriété,
les points d’essais doivent être choisis selon des critères d’optimalité
garantissant cette propriété d’inversion.
Exploration de l’espace de conception 125

En plus de cette propriété, un second critère lié à la précision souhaitée en


termes de prédiction est également utilisé pour définir ces essais. Ces critères
définissent généralement la nature du plan d’expériences à réaliser.

Dans la suite, nous présentons, tout d’abord les différents critères


d’optimalité utilisés pour contrôler la précision du méta-modèle, puis
nous présenterons les plans d’expériences les plus utilisés dans la
littérature.

6.2.1. Plans d’expérience

La démarche des plans d’expériences permet une rationalisation du


nombre d’essais permettant d’appréhender l’impact des facteurs de
conception sur les performances que nous nommerons réponses.

Ces essais sont positionnés dans l’espace de conception de manière à


optimiser un critère généralement lié :
– soit à la variance des paramètres estimés du méta-modèle,
– soit à la précision en prédiction du méta-modèle.

6.2.1.1.Critères basés sur la variance des coefficients (VC)


La variance des coefficients du méta-modèle s’exprime sous la forme
suivante :

(
Diag Var( pˆ ) = Diag σ r2 X t X )
−1
(6.4)

Où Diag Var( p̂ ) désigne la diagonale de la matrice des variances des


coefficients du méta-modèle et σ r2 la variance du résidu ε.

Le choix d’un critère d’optimalité pour un plan d’expériences donné


est lié au choix d’un critère de minimisation des variances. Les quatre
principaux critères de minimisation des variances sont les suivants :
– O-optimalité : ce critère est généralement le plus utilisé. Dans ce
cas, la matrice de calcul X est une matrice orthogonale par conséquent la
matrice (X t ⋅ X ) est une matrice diagonale. Dans ce cas, on démontre
−1

[GOU 99] que la variance des coefficients estimés est minimale. Les
plans orthogonaux les plus utilisés sont les plans proposés par Plackett et
Burman et les plans de Taguchi qui sont construits à partir des matrices
d’Hadamard. L’orthogonalité de la matrice X assure une meilleure
126 La conception industrielle de produits 3

précision du fait que les termes du modèle mathématique ne sont pas


corrélés ;
– D-optimalité : ce critère correspond à la disposition des points
expérimentaux qui conduit au déterminant de la matrice d’information
ayant la valeur la plus élevée possible. Si l’on veut la plus petite variance
possible sur l’ensemble des coefficients, il faut que les termes diagonaux
de la matrice de variances soient eux-mêmes les plus petits possibles. On
obtient ce résultat en minimisant le déterminant de la matrice (X t ⋅ X ) ;
−1

– A-optimalité : dans ce cas, la somme des variances des coefficients


est minimisée. Un plan est A-optimal si la position des points
expérimentaux minimise la trace de la matrice (X t ⋅ X ) ;
−1

– G-optimalité : ce critère consiste à minimiser la plus grande variance


des coefficients du méta-modèle mathématique.

6.2.1.2. Critères basés sur la précision (PM)


Dans ce cas, le choix des essais définissant la matrice X est déterminé de
manière à minimiser un critère de précision sur la réponse estimée par le
méta-modèle.

Le critère le plus utilisé est le critère d’isovariance par rotation. Ce critère


permet de garantir que les réponses calculées avec le méta-modèle aient une
erreur de prévision identique pour des points situés à la même distance du
centre du domaine d’étude. Dans ce cas on parle de plan isovariant par
rotation.

Les deux types de critères PM et VC conduisent à des qualités de


modélisation différentes. Certains privilégient une bonne précision sur les
coefficients du modèle, d’autres assurent une répartition homogène de
l’erreur de prévision.

6.2.2. Les différents types de plans d’expériences

Après avoir présenté les différents critères d’optimalité, nous allons


présenter les différents types de plans d’expériences proposés dans la
littérature dont la construction dépend à la fois de la structure du méta-
modèle et d’un des critères d’optimalité précédemment présentés.
Exploration de l’espace de conception 127

Figure 6.2. Différents types de plans d’expériences : cas de 2 facteurs

6.2.2.1. Cas linéaire


Dans ce cas, le méta-modèle est limité au degré 1. Il s’exprime sous la
forme suivante :
m m m
y ( X ) = a 0 + ∑ a i X i + ∑∑ a jk X j X k (6.5)
i =1 j =1 k = j

Parmi les plans les plus connus s’appuyant sur cette structure du méta-
modèle on trouve :
– les plans factoriels complets 2k : ces plans possèdent la propriété
orthogonalité (O-optimalité). Ils contiennent uniquement des facteurs à deux
niveaux généralement codés en (-1) (niveau bas du facteur) et (+1) (niveau
haut du facteur). Dans ces plans toutes les combinaisons possibles des
facteurs sont testées. Ces plans permettent de déterminer de manière
exhaustive les effets de tous les facteurs ainsi que de leurs interactions
(interactions 2 à 2, 3 à 3, etc.) ;
– les plans factoriels fractionnaires : ces plans sont généralement définis
à partir des plans factoriels complets. Ils contiennent une fraction du plan
complet pour le même nombre de facteurs et leurs niveaux. Généralement,
128 La conception industrielle de produits 3

ces plans ne permettent pas une analyse exhaustive de tous les facteurs ou
interactions. On se focalise sur un sous-groupe de facteurs et/ou
d’interactions ;
– les plans de Kosha, de plackett et Burman : ces plans sont orthogonaux
et permettent de déterminer uniquement les effets principaux des facteurs. Le
méta-modèle se limite aux facteurs. On ne peut pas évaluer les interactions.
Dans ce cas, le méta-modèle s’exprime sous la forme suivante :
m
y ( X ) = a0 + ∑ ai X i (6.6)
i =1

Ces plans sont généralement utilisés pour dégrossir un problème. Ils


forment généralement le début d’un plan factoriel qu’il est toujours possible
de compléter pour obtenir un plan complet ou fractionnaire :
– les tables de Taguchi [FOW 95] : ce sont des plans orthogonaux
pouvant combiner des facteurs à deux niveaux, trois niveaux ou quatre
niveaux et dans certains cas des facteurs avec un nombre de niveaux
différents, on parle dans ce cas de plans mixtes ;
– les plans sursaturés : ce sont également des plans orthogonaux. Un plan
saturé est un plan qui comporte autant d’essais que de coefficients à
déterminer dans le méta-modèle. Par exemple, les plans de Plackett et
Burman et les tables de Taguchi sont souvent des plans saturés. Un plan
sursaturé est un plan qui comporte moins d’essais que de coefficients à
déterminer. Les plans factoriels fractionnaires peuvent être considérés dans
certains cas d’utilisation comme sursaturés.

6.2.2.2. Cas quadratique : plans à surfaces de réponse


Dans le cas où le méta-modèle inclut des termes du deuxième degré, on
parle le plus souvent de plans pour surfaces de réponse.

Le méta-modèle s’exprime alors sous la forme suivante :


m m m
y ( X ) = a0 + ∑ ai X i + ∑ ∑a jk X j X k + ∑ aii X i2 (6.7)
i =1 j =1 k = j +1

Différents plans d’expériences peuvent être utilisés pour la détermination


des coefficients du méta-modèle. Parmi les plans les plus usuels, on trouve
les plans composites, les plans de Dohlert et les plans de Box-Behnken. Ces
plans sont décrits comme suit :
Exploration de l’espace de conception 129

– les plans composites : un plan composite est composé de trois parties :


– un plan factoriel complet ou fractionnaire à deux niveaux par
facteur,
– un plan en étoile qui donne des points expérimentaux sur les axes.
Ils sont tous situés à la même distance du centre du domaine. Le choix de
cette distance est généralement effectué selon un critère d’optimalité de type
PM (relatif à la précision du méta-modèle en prédiction) [GOU 99],
– des essais au centre du domaine d’étude ;
– les plans de Doehlert : ces plans utilisent des points expérimentaux qui
remplissent d’une manière uniforme le domaine expérimental. Dans ce type
de plan, l’objectif n’est pas de rechercher le meilleur emplacement des
points expérimentaux au sens d’un critère d’optimalité donné mais plutôt de
favoriser l’exploration de l’espace expérimental. La répartition de manière
régulière des points dans le domaine expérimental est réalisée
indépendamment du choix du modèle mathématique et sans prise en compte
du choix d’un critère d’optimalité. Ainsi, un avantage de ces plans
d’expériences se résume dans le fait que le domaine expérimental peut être
étendu facilement avec l’introduction de nouveaux facteurs ;
– les plans de Box-Behnken : les plans de Box-Behnken répondent au
critère d’isovariance par rotation. Le plus connu des plans de Box-Behnken
est celui qui permet d’étudier trois facteurs.

6.2.3. Critères de validation

Dans la littérature, il existe différentes approches pour la validation d’un


modèle. L’un des critères les plus utilisés est le critère R 2 . Ce critère permet
à la fois d’évaluer la précision du modèle et d’évaluer sa capacité à être
prédictif.

Généralement les points d’essais sont présentés par un nuage de points


plus ou moins dispersés de la courbe d’ajustement. Ceci donne différentes
valeurs de l’erreur d’ajustement. Pour savoir, si le modèle mathématique
explique l’ensemble des résultats des essais numériques (calculs) réels, un
test statistique est effectué, nommé test du R 2 [GOU 99], ce test est basé
sur le critère suivant :
∑ ( yˆ − y )
2

R2 = 1−
i i (6.8)
∑ (y − y )
2
i
130 La conception industrielle de produits 3

Où :
– ŷi désigne la prédiction fournie par le méta-modèle pour l’essai i,
– yi représente la mesure réelle issue de l’expérience ou de la simulation,
– y représente la moyenne sur l’ensemble des mesures réelles.

La validation du méta-modèle en termes de prédiction est effectuée sur la


base d’essais numériques (calculs) n’ayant pas été utilisés lors de sa
construction.

D’après l’équation (6.8) la valeur du R 2 varie entre 0 et 1 . Un modèle


est jugé prédictif donc valide, lorsque son R 2 tend vers 1 . Ce critère peut
s’avérer peu pertinent lorsqu’il est évalué sur peu de mesures. Dans ce cas, il
est préconisé d’utiliser le critère R2 ajusté [GOU 99].

6.3. Exercices de travaux dirigés : construction de méta-modèle

Considérons le treillis illustré figure 6.3. Les paramètres identifiés par des
lettres sont variables et l’on va chercher à établir des relations entre ces
paramètres de conception et les performances attendues pour le treillis
(coefficient de sécurité sur les contraintes, coefficient de sécurité sur la
première fréquence propre, encombrement).

Pour cela, nous allons utiliser la méthode des plans d’expérience en


faisant différentes hypothèses pour la relation fonctionnelle à considérer
entre les paramètres de conception et les performances.

A partir des différentes options proposées en lançant le code disponible


sur le site Hermès, www.hermes.science.fr/yannou/cip.zip, et en utilisant les
relations analytiques fournies pour trouver les valeurs des performances pour
chaque essai :
– identifier le méta-modèle pour une relation fonctionnelle linéaire sans
interactions ;
– identifier le méta-modèle pour une relation fonctionnelle linéaire avec
interactions ;
– identifier le méta-modèle pour une relation fonctionnelle quadratique ;
– analyser la validité de chacun de ces modèles et conclure sur le méta-
modèle le plus adapté.
CHAPITRE 7

Conception sous incertitudes : programmation


par contraintes et frontières de Pareto

7.1. Introduction au cas d’application du dimensionnement de treillis

Nous allons tout de suite introduire un problème de dimensionnement


d’une taille et complexité suffisante pour être utilisé à la fois pour illustrer la
partie sur la conception sous incertitude, la partie méta-modèle, la partie
conception robuste et la partie conception fiable. Ce cas d’application sera
par la suite quelque peu étendu et complexifié ; il fera l’objet de plusieurs
énoncés et corrigés que le lecteur a tout loisir d’expérimenter grâce à des
primitives Scilab ou Matlab se trouvant sur le site web support de l’ouvrage.

Le cas d’application consiste à dimensionner un treillis à deux barres


présenté en figure 7.1. Ce problème a été initialement proposé par Wood et al.
[WOO 89] pour étudier par des techniques de la logique floue la propagation
de paramètres de conception incertains sur les performances. Cet exemple a
été par la suite repris par Scott et al. [SCO 00] sous une forme paramétrée
différente pour choisir une solution optimale de Pareto (concept explicité par
la suite). Pour cet exemple, nous choisissons d’utiliser le paramétrage et les
domaines de définition des paramètres du problème initial de Wood et al.
[WOO 89], mais nous avons choisi les contraintes de conception plus
complexes et les variables de performance de Scott et al. [SCO 00].

Chapitre rédigé par Bernard YANNOU.


132 La conception industrielle de produits 3

Figure 7.1. Le cas d’application du treillis à deux barres

Le besoin du produit consiste à concevoir une structure mécanique


permettant de supporter un poids à une distance L d’un mur, en tâchant de
minimiser la masse de cette structure. Une configuration (ou concept)
envisageable est le treillis à deux barres articulées de la figure 1, une barre
(CD) horizontale étant soumise à de la flexion et une barre de compression
(AB) étant attachée au mur et reliée à la première barre avec un angle de 60
degrés. La liaison commune est située aux deux tiers de L à partir du mur.
Les deux barres ont une section rectangulaire : wAB.t pour (AB) et wCD.t pour
(CD), w figurant pour la largeur (width) et t pour l’épaisseur (thickness). Des
hypothèses simplificatrices supplémentaires sont effectuées : le matériau des
deux barres est l’acier, et nous imposons que les deux largeurs de barre
soient reliées par : wCD = wAB - 0.025 m. Le concepteur se doit de trouver les
valeurs les mieux adaptées aux paramètres de conception suivants : t, wAB et
L. De plus la spécification de la masse W est laissée relativement imprécise
au début du processus de conception ; sa valeur maximale se situe entre 15 et
20 kN. En conséquence, on peut considérer W comme une quatrième
variable de conception à définir précisément à la fin du processus de
dimensionnement.

Les deux contraintes mécaniques à satisfaire sont :


– la contrainte maximale due à la flexion notée σb (pour bending) dans la
barre (CD) doit être inférieure ou égale à la limite maximale de rupture notée
σr et égale ici pour l’acier à 225 MPa ;
Programmation par contraintes et frontières de Pareto 133

– la force de compression FAB dans la barre (AB) doit être inférieure ou


égale à la limite de flambage Fb (pour buckling).

On montre que la contrainte maximale due à la flexion σb se situe au


point B à la fibre la plus excentrée de la section ; elle est donnée par les
formules suivantes impliquant WCD, le poids de la barre (CD) :

⎛ W ⎞
2 L⎜W + CD ⎟
6 ⎠ ⎧ W = ρgwCD tL
σb = ⎝ avec ⎨ CD (7.1)
⎩wCD = w AB − 0.025
2
wCD t

La force de compression dans la barre (AB) est donnée par les formules
suivantes impliquant WAB, le poids de la barre (AB) :

2 2
⎧ 9 ⎛ W W ⎞⎫ ⎧ 3 ⎛ W ⎞⎫
FAB = ⎨ ⎜W + CD + AB ⎟⎬ + ⎨ ⎜W + CD ⎟⎬
⎩2 3 ⎝ 2 3 ⎠⎭ ⎩ 2 ⎝ 2 ⎠⎭ (7.2)
4 3
avec W AB = ρgw AB tL AB et L AB = L
9

La limite de flambage dans la barre (AB) est donnée par :

π ² EI AB 9π ² Ew AB t 3
(7.3)
Fb = 2
=
L AB 64 L2

Les variables de performance sont la masse M de la structure (à


minimiser) et le facteur de sécurité s, c’est-à-dire le ratio de
surdimensionnement au-delà du strict respect des contraintes mécaniques qui
s’expriment par :

σb ≤ σr et FAB ≤ Fb (7.4)

La masse M est donnée par :

M = W AB + WCD (7.5)

Le facteur de sécurité s du treillis est le minimum entre le facteur de


sécurité au-delà de la limite de flexion admissible σr, soit sσ, et le facteur de
134 La conception industrielle de produits 3

sécurité au-delà de la limite de flambage Fb, soit sF. Il s’exprime de la


manière suivante :

σr F
sσ = , s F = b , s = min (sσ , s F ) (7.6)
σb FAB

Les deux contraintes mécaniques peuvent donc s’exprimer simplement


par :

sσ ≥ 1, sF ≥ 1 (7.7)

Ou encore plus simplement par la seule contrainte :

s ≥1 (7.8)

7.2. Exploration de l’espace de conception

7.2.1. Conception sous incertitudes en amont du processus de conception

L’exploration de l’espace de conception durant la phase de


dimensionnement préliminaire12 est un champ actif de recherche. Cela
consiste à explorer les relations entre les choix de valeurs des paramètres de
conception et les valeurs des variables de performance. Cette exploration
peut permettre de conférer au concepteur une fine compréhension du
potentiel d’un concept13 donné de conception, alors qu’une méthode plus
classique d’optimisation directe d’une fonction objectif (fonction de
plusieurs performances) conduit peut être à un dimensionnement
partiellement optimal mais de manière automatique et « en aveugle » sans
révéler des aspects et propriétés du concept qui permettraient pourtant de
changer sa perception du problème (des spécifications ou des contraintes).

Souvent, l’exploration de l’espace de conception d’un concept de produit


est réalisée au sein d’un processus de type « conception sous incertitude »
qui est un processus de dimensionnement consistant en une réduction

12. Il est couramment admis qu’elle se situe après la phase de conception conceptuelle et
avant celle de conception détaillée.
13. On peut définir ici un concept de conception comme un principe de conception donnant
lieu à une architecture du produit de premier niveau.
Programmation par contraintes et frontières de Pareto 135

progressive et consciente des domaines de définition initiaux14 des


paramètres de conception, tout en s’assurant du respect des spécifications
portant sur les performances ainsi que les contraintes portant à la fois sur les
paramètres de conception et les performances. A l’issue d’un tel processus,
le concepteur est sensé avoir convergé vers une solution dimensionnée
satisfaisante en ayant suivi un processus de réflexion. Trois familles de
techniques et d’approches coexistent pour mettre en œuvre une telle
réduction progressive d’incertitude entre les espaces des paramètres de
conception et l’espace des performances, que ce soit dans le sens de
l’analyse15 (des paramètres vers les performances) ou de la synthèse16 (dans
le sens des performances vers les paramètres) :
– les techniques floues (voir [ANT 95], pas détaillées par la suite) ;
– les techniques probabilistes : la plupart de ces approches consistent à
générer un nombre de points de conception17 dit faisables18 et à représenter
graphiquement ces nuages de points de manière à bien révéler les
corrélations qui peuvent exister entre les valeurs prises simultanément par
les paramètres de conception et les performances. Ces représentations
graphiques permettent aussi de représenter la frontière de Pareto ou les
préférences des solutions de conception (voir [STU 04]). La génération des
points de conception faisables est souvent un processus statistique (dit de
Monte Carlo) de génération de solutions a priori candidates à l’intérieur des
domaines de définition initiaux des paramètres de conception. Cette
génération est suivie d’une vérification des contraintes qui peut devenir
inefficace lorsque le problème de conception est très contraint puisqu’une
majorité des solutions candidates, ne vérifiant pas les contraintes, ne sont pas
faisables et n’appartiennent pas en définitive à l’espace de conception ;
– les techniques de programmation par contraintes (PPC). Elles ne sont pas
seulement bien adaptées à une exploration numérique des valeurs
dimensionnelles des variables de performance et des paramètres de conception,
mais elles sont de plus adaptées à des explorations topologiques de concepts ou

14. Domaines de valeurs considérées comme admissibles à un moment donné.


15. On parle aussi de forward mapping.
16. On parle aussi de backward mapping.
17. On appelle point de conception une solution potentielle correspondant à un jeu de valeurs
précises pour les paramètres de conception, c’est-à-dire que les domaines des paramètres ont
été réduits à un singleton.
18. Un point de conception est dit faisable s’il vérifie l’ensemble des contraintes portant sur
les paramètres de conception et les performances.
136 La conception industrielle de produits 3

architectures sous contraintes et, notamment, à différentes configurations de


fonctionnement d’un système selon les étapes d’un cycle de vie (comme les
phases de vol d’un avion [SCA 06b]). Scaravetti et al ont étudié la façon dont les
techniques de PPC employées au travers du formalisme de résolution des
problèmes à satisfaction de contraintes (PSC) doivent être utilisées au sein d’un
déploiement industriel de projet de conception : quelles variables contraintes,
quelles contraintes, quelle évaluation d’alternatives, quel choix de composants
dans les catalogues [SCA 06a].

Avec la programmation par contraintes (PPC) sur les réels, les variables
de performances et paramètres de conception sont modélisés, à un moment
donné, comme des intervalles de valeurs admissibles. Ces valeurs peuvent
être considérées comme équiprobables, on peut dons les équivaloir à des
distributions uniformes en modélisation probabiliste.

7.2.2. Programmation par contraintes

Les techniques de PPC sur les réels sont une évolution sophistiquée de
l’analyse des intervalles, ou encore l’arithmétique des intervalles (voir
[MOO 79]), appliquée à un ensemble de contraintes analytiques. En partant
d’un ensemble de domaines initiaux pour les variables contraintes et d’un
ensemble de contraintes mathématiques liant ces variables, différentes
techniques de PPC dites de cohérence ou de filtrage (comme les techniques
Hull, Box, weak-3B ou 3B, voir par exemple [BEN 99] et [YAN 05a])
tentent de contracter autant que leur degré de cohérence le permet, les
domaines des variables contraintes de manière à éliminer toutes les valeurs
impossibles (celles ne figurant dans aucune solution faisable). Cette étape de
contraction du domaine est aussi appelée étape de filtrage. On essaie ainsi
d’aboutir au produit cartésien d’intervalles le plus resserré, mais en
s’assurant tout de même que toute solution faisable est bien contenue au sein
de cette description de l’espace. Cette dernière propriété est dite propriété de
complétude et garantit que le processus de contraction aboutit à un espace
englobant (surpassant ou égal à) l’espace de conception.

Dans une seconde étape, le mécanisme de séparation des domaines


(dichotomie par exemple) est appliqué récursivement et de manière
alternative avec celui de filtrage de manière à raffiner la recherche de
solutions. Un arbre de recherche est progressivement construit avec l’aide
d’un critère d’arrêt pour savoir quand arrêter le processus de dichotomie des
intervalles ; ce critère est par exemple la largeur minimale d’intervalle en
Programmation par contraintes et frontières de Pareto 137

deçà duquel on ne descend pas, ou le nombre de solutions de ce processus de


recherche. L’algorithme dit de branchement et d’élagage19 cherche à
détecter à tout moment si la contraction des domaines n’a pas réduit un
domaine (intervalle) à l’ensemble vide, auquel cas il est bien entendu inutile
de continuer la construction de l’arbre à partir de cette branche en séparant
d’autres domaines. A la fin du processus, l’espace de conception est
approximé par un certain nombre de boîtes disjointes qui sont des produits
cartésiens de (généralement) petits intervalles relativement aux variables
contraintes (paramètres de conception et variables de performance). Il est
alors très simple d’en déduire une enveloppe de boîtes en déduisant les
bornes minimale et maximale que sont susceptibles d’atteindre les variables
contraintes. Cette enveloppe de boîtes fournit au concepteur une information
rapide et parlante en termes de zones de valeurs pour lesquelles il est
impensable de trouver une solution faisable de conception20. Au final, une
représentation graphique de cette collection de boîtes n-dimensionnelles (n
étant le nombre de variables contraintes) par projections successives 2D ou
3D peut donner une bonne idée de la forme de l’espace de conception et du
couplage entre variables.
La figure 7.2 illustre les quatre approximations englobantes de l’espace
de conception qu’il est possible de considérer par un processus de résolution
par PPC :
– les domaines initiaux ;
– les domaines filtrés après qu’une première contraction des domaines ait
été réalisée ;
– l’enveloppe des boîtes, c’est-à-dire la projection sur les domaines des
variables de la collection des boîtes qui n’ont pas été considérées comme
incohérentes dans le processus de séparation (c’est-à-dire qui n’ont pas un
domaine réduit à l’ensemble vide) ;
– la collection de boîtes elle-même.

Il est évident que ces quatre approximations de l’espace de conception


sont ordonnées selon un rang de raffinement croissant autour de l’espace de
conception réel.

19. Branch-and-prune en anglais.


20. Rappelons que la propriété de complétude assure que toute valeur exclue d’un domaine de
définition n’a aucune chance de figurer dans une solution faisable (c’est-à-dire respectant les
contraintes). L’inverse n’est pas vrai.
138 La conception industrielle de produits 3

Nous avons déjà montré dans [YAN 04 ] que les représentations


graphiques de la collection de boîtes pouvait être très parlantes et
structurantes pour le/les concepteur(s) pour réaliser des analyses de
corrélations et de tendances de variables et ainsi prendre de bonnes décisions
tout au long d’un processus de « conception sous incertitude » multi-étapes.
Il s’agit ici d’une première utilité d’importance des techniques de PPC en
dimensionnement préliminaire. Deux étapes d’un tel processus de
dimensionnement préliminaire sont illustrées dans le tableau 6.1 sur
l’exemple du treillis à deux barres :
– un cas où la conception est « assez peu contrainte ». Cela signifie que
l’espace de conception effectif entre peu en conflit avec les domaines
initiaux qui sont, en conséquence, peu contractés. C’est la situation du cas
n° 1 des contraintes de spécification où on contraint seulement le facteur de
sécurité à sa valeur minimale de 1 ;
– un cas où la conception est « très contrainte ». Cela signifie que les
domaines initiaux sont beaucoup plus larges que l’espace de conception
effectif. C’est la situation du cas n° 2 des contraintes de spécification où on
contraint le facteur de sécurité à être supérieur ou égal à 1,5 et la masse M à
être inférieure ou égale à 3,2 tonnes.

Notons que dans les deux cas, les contraintes qui sont manipulées dans un
processus de plus en plus contraint de « conception sous
incertitude », portent sur les performances (s et M). En effet, le concepteur
peut avec cet environnement de PPC concevoir fonctionnellement en partant
du besoin et en rétro-propageant les conséquences vers la solution (qui
constitue un moyen). Cette fonctionnalité assez exceptionnelle de synthèse
est ici permise par les propriétés de rétro-propagation des mécanismes de
filtrage de la PPC.

Paramètres de conception Variables de performance Constantes

t ∈ [0.04, 0.10 ] M ∈ [0,+∞[ E = 207 ⋅ 10 9 Pa


w AB ∈ [0.04, 0.13] sσ ∈ [1, + ∞[ ρ = 7830 kg m 3
L ∈ [3, 4] s F ∈ [1, + ∞[ g = 9.81 m s 2
W ∈ [15000, 20000 ] s ∈ [1, + ∞[ σ r = 225 ⋅ 10 6 Pa

Tableau 7.1. Paramètres de conception et données du modèle


Programmation par contraintes et frontières de Pareto 139

Figure 7.2. Domaines des intervalles initiaux des paramètres de conception et variables
de performance pour l’exemple treillis à deux barres (en haut). Les quatre approximations
englobantes successives de l’espace de conception à l’issue d’une résolution de PPC

Après avoir suffisamment exploré l’espace de conception du treillis à


deux barres et avoir successivement contraint le problème de conception,
le concepteur a convergé vers un petit espace de conception définissant
ainsi des dimensions relativement précises. Il est maintenant temps
d’utiliser des techniques probabilistes pour manipuler des nuages de
points de conception faisables de manière à appréhender des solutions
une à une. Nous pouvons alors réaliser une simulation de Monte Carlo en
tirant de manière aléatoire 100 000 points de conception à l’intérieur des
domaines initiaux des paramètres de conception (donnés en haut de la
table 7.1). Après la vérification des contraintes mécaniques (voir
l’équation (7.4)) et des contraintes de spécification, nous avons obtenu
(voir aussi [YAN 05b]) 15 000 points de conception faisable pour le cas
n° 1 de conception « assez peu contrainte », relativement à seulement
quatre points de conception faisable dans le cas n° 2 de conception « très
contrainte ». Ces points de conception faisable et non faisable ont été
représentés dans la partie gauche de la figure 7.4 pour bien réaliser le
faible pourcentage des points de conception faisable. Il est alors vraiment
problématique pour le concepteur d’explorer finement l’espace de
140 La conception industrielle de produits 3

conception vue la faible densité des points de conception faisable


disponibles ; cela ne permet pas d’avoir des variations continues des
performances. Une nouvelle fonctionnalité des techniques de PPC a alors
été proposée par Yannou et al [YAN 05b] : le pourcentage des solutions
de conception faisable est bien meilleur lorsque l’on effectue des tirages
aléatoires au sein de l’enveloppe des boîtes ou de la collection de boîtes
issues d’une première résolution par des techniques de PPC. En effet,
dans le cas n° 2, le nombre de points de conception faisable est passé de 4
à 1 700 (soit 1,7 % des points de conception) lorsque l’on tire au sein de
l’enveloppe des boîtes (voir aussi la partie droite de la figure 7.3.), et de
4 à 9 500 (soit 9,5 % des points de conception) lorsque l’on tire au sein
de la collection de boîtes [YAN 05b], un gain énorme en efficacité !

Contraintes projection projection projection Enveloppe des boîtes


de
spécification
{t , wAB , L} {L,W , M } {W , M , s}

t ∈ [0.0621, 0.1]
Cas n° 1 wAB ∈ [0.0654, 0.13]
« assez peu
L ∈ [3, 4]
contraint »
W ∈ [15000, 20000 ]
s ≥1
M ∈ [2077.9, 6300 .9]
s ∈ [1, 2.567 ]

Case n° 2 t ∈ [0.0887, 0.1]


« très wAB ∈ [0.0859, 0.1026]
contraint »
L ∈ [3, 3.150]
W ∈ [15000, 16638]
s ≥ 1 .5
M ≤ 3200 M ∈ [2926.5, 3200]
s ∈ [1.5, 1.664]

Tableau 7.2. Résolution par PPC du treillis à deux barres. Deux étapes du processus
de dimensionnement sont considérées selon les contraintes de spécification adoptées
Programmation par contraintes et frontières de Pareto 141

Figure 7.3. Représentation des points de conception faisable et non faisable dans l’espace
des performances pour le cas n° 2 de conception « très contrainte ». Cent mille points ont
été tirés aléatoirement à l’intérieur des domaines de X = [t,w,L,W]. A gauche, ils ont été
tirés à l’intérieur des domaines initiaux, à droite ils ont été tirés à l’intérieur
de l’enveloppe des boîtes déduite d’une première résolution de PPC.

7.2.3. Gestion des compromis en utilisant les frontières de Pareto

Seul un sous-ensemble de points de conception faisable peut être éligible


pour fournir des solutions optimales, celles-ci représentent l’espace des
solutions optimales de Pareto. Cet ensemble de solutions optimales de
Pareto apparaît comme une courbe, éventuellement en plusieurs parties, dans
l’espace des performances : c’est la frontière de Pareto. Par définition, la
frontière de Pareto (voir [MES 03]) est le lieu des solutions non dominées,
une solution dominée étant une solution (point de conception faisable) pour
laquelle il existe au moins une autre solution qui est meilleure pour toutes les
performances. Mettre en évidence les solutions optimales de Pareto parmi
tous les points de conception faisable énumérés est primordial pour les
concepteurs. En effet, il est certain que c’est parmi ces solutions que sera
choisie la solution définitive. Dans [STU 04] et dans [SCA 06 b], les auteurs
ont développé des outils graphiques interactifs qui informent le concepteur
des performances données d’une solution de Pareto désignée dans l’espace
des performances et affichée en correspondance dans l’espace des
paramètres de conception. Ce principe de correspondance d’une solution
142 La conception industrielle de produits 3

de Pareto dans les deux espace de performances et de paramètres de


conception est illustré par la figure 7.4 sur un problème sensé avoir deux
performances F1 et F2 à minimiser et deux paramètres de conception X1 et
X2. De la définition donnée plus haut des solutions de Pareto comme des
solutions non (totalement) dominées, on en déduit aisément la frontière
rouge dessinée en arc concave en bas à gauche du plan (F1, F2). La
transcription de cette frontière dans l’espace des paramètres (X1, X2) n’a
aucune raison de se retrouver en bordure du nuage de points de conception,
celle-ci doit donc être construite pour devenir un résultat important qui sera
exploité par le concepteur.

Figure 7.4. Représentation de la frontière de Pareto dans l’espace des performances


(à gauche) et dans l’espace des paramètres de conception (à droite),
schéma extrait de [FER 04]

Comment générer cette frontière de Pareto ? La plus simple des méthodes


est la génération de Monte Carlo de solutions faisables et la recherche parmi
ces solutions des solutions optimales. On voit que si la génération de
solutions faisables peut déjà être problématique quand le problème de
conception est très contraint, elle l’est d’autant plus lorsqu’il faut par la suite
trouver les solutions qui sont optimales. Cela peut donc vite devenir trop
complexe pour générer par cette méthode brute une frontière avec
suffisamment de points.
Programmation par contraintes et frontières de Pareto 143

Plusieurs autres méthodes dédiées à la génération de frontière de Pareto


existent donc. Parmi celles-ci cinq méthodes ont particulièrement prouvé
leur efficacité :
– la méthode Physical Programming (PP) [MES 96] qui est une
extension de la méthode de Goal Programming,
– la méthode Normal-Boundary Intersection (NBI) [DAS 98],
– la méthode Normal Constraint (NC) [ISM 02],
– la méthode Weighted Sum (WS),
– la méthode Compromise Programming (CP).
Sans détailler ici leurs principes, disons qu’on peut les comparer en
fonction de :
– leur capacité à générer des solutions de Pareto équi-réparties (ou équi-
denses) le long de la frontière dans l’espace de performance. Cette propriété
est importante pour une exploration de qualité ;
– la capacité de la méthode à générer toutes les solutions de Pareto
(complétude) ;
– la capacité de la méthode à générer seulement des solutions de Pareto
(cohérence) ;
– la facilité de mise en œuvre.

En réalité, de nombreuses méthodes échouent plus ou moins à la première


propriété comme le montre le tableau 6.2. Ce qui n’est pas le cas de la
méthode NC, par contre celle-ci génère des points qui ne sont pas des
solutions de Pareto. Messac et al [MES 03] ont récemment étendu leur
méthode de Normal Constraint (NC) en Normalized Normal Constraint
(NNC) pour effectuer un filtre ultérieur efficace et corriger ce point. Cette
méthode NNC nous semble donc une bonne méthode.
(1) Génère des (2) Génère tous (3) Génère (4) Facile à
points équi-répartis les points de seulement les mettre en œuvre
Pareto points de Pareto
(i) PP Oui Oui Oui Oui
(ii) NBI Oui Oui Non Oui
(iii) NC Oui Oui Non Oui
(iv) WS Non Non Oui Oui
(v) CP Non Oui Oui Oui

Tableau 7.3. Critères de performance des méthodes de génération de frontière


de Pareto d’après [MES 03]
144 La conception industrielle de produits 3

Comment maintenant choisir une solution optimale de Pareto parmi


d’autres comme la solution définitive ? Une solution basique est
l’exploration de la frontière et le choix par le concepteur. Une autre
solution couramment utilisée est d’établir un modèle de préférences
agrégeant les performances en une fonction objectif et de maximiser ou
minimiser (selon le cas) cette fonction objectif. Il s’agit aussi
d’optimisation multi-objectifs.

Reprenons ici le cas du treillis à deux barres. La fonction objectif doit


être construite comme une fonction des deux performances M et s,
sachant qu’il faut minimiser M et maximiser s.

Une forme traditionnelle de cette fonction objectif est donnée par la


forme suivante qu’il s’agit de minimiser :

M − M min s −s
α + (1 − α ) max avec α ∈ [0,1] (7.6)
M max − M min smax − smin

Le facteur de pondération α doit être fixé par les concepteurs pour


privilégier la diminution de masse ou l’augmentation du facteur de
sécurité. La frontière de Pareto est indiquée en figure 6.7.

Si on considère que α = 0, alors l’optimisation revient à minimiser –s


et donc à maximiser s, ce qui donne environ le point A : (M = 3200,
s = 1,65). En considérant que α = 1, l’optimisation revient à minimiser
M, ce qui donne environ le point B : (M = 2950, s = 1,5). En faisant
varier continûment α de 0 à 1, on constate que le point optimum reste A
jusqu’à environ α = 0,78, que ce point se dirige vers B en longeant la
frontière de Pareto entre α = 0,78 et α = 0,87, puis qu’il reste en B
jusqu’à α = 1 (voir les deux courbes en bas de la figure 7.5).

Il s’agit ici d’un résultat bien connu : en cas de frontière de Pareto


convexe, le fait de faire varier continûment le coefficient de pondération
α permet de parcourir toute la frontière de Pareto. Mais, en cas d’une
frontière de Pareto non convexe, des portions qui peuvent être
importantes ne sont pas parcourues durant ce processus ; en conséquence
il se peut très bien que des pans entiers de solutions optimales de Pareto
soient exclues du choix par une procédure d’optimisation de type
combinaison linéaire. Cette problématique non triviale peut être résolue
Programmation par contraintes et frontières de Pareto 145

en utilisant des formulations plus sophistiquées de fonctions objectif ; la


publication de Scott et al [SCO 00] en donne un bon exemple sur une
version presque identique à notre exemple du treillis à deux barres.

Frontière
de Pareto

Figure 7.5. L’optimisation d’une fonction objectif (fonction de s et M), en faisant varier
le paramètre de combinaison linéaireα, décrit toute la frontière de Pareto
146 La conception industrielle de produits 3

7.3. Exercices de travaux dirigés : exploration de l’espace de conception

Question : pour chaque espace de performance de la figure 7.6, tracer la


frontière de Pareto associée.

Minimiser Y1

Minimiser Y2

Minimiser Y1

Minimiser Y2

Minimiser Y1

Minimiser Y2

Figure 7.6. Différents espaces de performances

Réponse : Celle-ci est apportée en figure 7.7.


Programmation par contraintes et frontières de Pareto 147

Minimiser Y1

Minimiser Y2

Minimiser Y1

Minimiser Y2

Minimiser Y1

Minimiser Y2

Figure 7.7. Différentes frontières de Pareto


CHAPITRE 8

Pré-dimensionnement d’un système


de conditionnement d’air d’avion civil

L’objectif de ce chapitre est de présenter un exemple de pré-


dimensionnement d’un système de conditionnement d’air d’avion civil en
utilisant des techniques de programmation par contraintes et visant à trouver
les meilleures configurations du conditionneur pour atteindre les
performances spécifiées.

8.1. Introduction

8.1.1. Conception préliminaire

Durant la conception préliminaire, le concepteur prend des décisions clés


qui engagent des coûts et des risques déterminants dans le cycle de vie du
produit [BER 88]. Pourtant, il existe dans cette phase peu d’outils réellement
adaptés à l’aide à la prise de décision pour les concepteurs [CHA 92]. Les
systèmes assistés par ordinateurs ne proposent pas d'assister la conception
architecturale (embodiment design), mais plutôt la conception détaillée. La
recherche d’une architecture fait pourtant appel à des opérations de calcul de
composants, de recherche d'éléments sur catalogues, de satisfaction de
contraintes géométriques, etc. Elle s’inscrit dans un processus itératif et

Chapitre rédigé par Dominique SCARAVETTI et Patrick SÉBASTIAN.


150 La conception industrielle de produits 3

souvent récursif qui s’avère d’autant plus difficile à mettre en œuvre que les
phénomènes physiques impliqués dans le fonctionnement du système et les
architectures fonctionnelles du système sont complexes et couplés.

Cette étude, réalisée en coopération avec la société Dassault-Aviation,


concerne la conception préliminaire d’un système de conditionnement d’air
d’avion civil (figure 8.1) dont les performances sont optimisées, notamment
au travers du choix de surfaces d’échanges. Les résultats obtenus permettent
de valider un saut quantitatif relatif à la complexité des problèmes de
conception de systèmes traités à l’aide de solveurs CSP (Constraint
Satisfaction Problem) mixtes basés sur l’analyse par intervalles.

Figure 8.1. Différentes situations d’utilisation du système de conditionnement d’air


(SCA où M est la vitesse en mach)

Le système de conditionnement d’air devant délivrer une température


d’air constante pour la cabine, sa conception doit tenir compte de phases de
vol très différentes, où les conditions atmosphériques et la vitesse de l’avion
varient fortement (figure 8.1) : l’altitude peut varier de 0 à 15km, la
température de l’air extérieur de -50 °C à +35 °C et la vitesse de l’avion
de 0 à Mach 0,9.

La difficulté de la conception de systèmes de conditionnement d’air


aéronautique est relative à la complexité des systèmes utilisés et à la
variabilité des conditions dans lesquelles ces systèmes sont conçus ou mis en
œuvre. Les choix technologiques de structure et de composants de ces
systèmes doivent être réalisés dans des temps courts, de l’ordre de quelques
mois, alors que l’environnement du système (en particulier l’avion) n’est
encore que partiellement défini et est susceptible de modifications. Le
concept global utilisé pour conditionner l’air de l’avion est lui aussi
susceptible de modifications partielles liées à l’introduction ou au retrait de
Pré-dimensionnement d’un système 151

composants qui ont une action sur les performances globales du système.
Dans un tel contexte, le développement de bases de connaissances traitées à
l’aide d’un solveur CSP doit permettre de tester rapidement différentes
configurations des systèmes de conditionnement pour valider ou invalider
leur pertinence par rapport au contexte évolutif.

8.1.2. Avantages de l'utilisation de la programmation par contraintes

Peu d’outils existent qui peuvent traiter efficacement ces problèmes qui
ont souvent un caractère combinatoire [DIV 01, HUG 99, LEE 04]. Les
problèmes de conception préliminaire sont naturellement exprimés comme
des problèmes de satisfaction de contraintes mixtes [SCA 04, THO 96] dont
le traitement ne relève pas des outils classiques de simulation en mécanique.
En effet, la notion de contrainte permet de traduire les connaissances du
concepteur sous forme de conditions de compatibilité entre les variables
d’un problème de conception. Les exigences métiers, les exigences du cycle
de vie du système mécanique, les critères d'appréciation du cahier des
charges fonctionnel et les comportements physiques peuvent être décrits
sous forme de contraintes.

Les solveurs CSP qui s’intéressent plus particulièrement aux problèmes


de recherche d’architecture en conception mécanique doivent permettre de
traiter des problèmes intégrant un nombre important de variables dont les
valeurs évoluent dans l’espace continu des réels. Ces variables traduisent en
particulier des notions de dimensions, de variables d’état (pression,
température, etc.) ou de critères de performance (coûts, rendements, etc.) qui
sont très utilisés en conception mécanique. Ces solveurs sont appelés
solveurs CSP numériques. Les problèmes rencontrés en conception
mécanique intègrent aussi des variables évoluant sur des domaines discrets,
comme par exemple des listes de composants ou de matériaux. Les solveurs
CSP mixtes permettent de traiter conjointement les variables continues et
discrètes.

Les domaines de valeurs affectés aux variables sont des intervalles ou des
unions d’intervalles réels pour les variables réelles et des ensembles
énumérés ou des unions d’intervalles de nombres entiers pour les variables
discrètes. Ces domaines peuvent être laissés assez larges pour éviter
d'éliminer des solutions potentielles au problème de conception.
152 La conception industrielle de produits 3

Une résolution manuelle du problème imposerait de fixer des valeurs


pour certaines variables en fonction de l'expérience du concepteur ou de
l'entreprise, comme par exemple ici de choisir a priori un type de surface
d'échange pour chaque échangeur afin de déterminer le reste du circuit. De
plus, le dimensionnement est effectué pour la situation de vie la plus
critique, appelée « dimensionnante ». Puis, par itérations successives, le
concepteur vérifie le respect du cahier des charges [ULL 03]. Mais
l'optimisation du système pour la situation de vie dimensionnante peut
difficilement se faire en tenant compte des contraintes de toutes les autres
situations de vie.

Afin d'éviter ce processus essai-et-erreurs et de n'éliminer aucune


solution par des choix a priori, la modélisation du problème sous forme de
CSP permet la prise en compte simultanée de toutes les contraintes, sans
hiérarchie ni choix préalable. La résolution du CSP permet l'évaluation des
différents concepts de solution, la recherche de toutes les configurations
satisfaisant les conditions de fonctionnement du système dans les différentes
situations de vie. L'expression de la performance et la réduction de l'espace
des solutions permettent ensuite une aide à la décision.

8.2. Description du problème de conception

8.2.1. Description du système et de son contexte d'utilisation

Le fonctionnement du système de conditionnement d’air d’avion


étudié (figure 8.2) repose sur un cycle du type Joule-Brayton. Il est
essentiellement constitué :
– de deux échangeurs thermiques à plaques et à courants croisés (E1 et
E2),
– d’une turbine (T) et d’un compresseur (C2) couplés,
– de diffuseurs, buses, vannes et conduites qui permettent d’amener
l’air extérieur et de l’air sous pression venant du turboréacteur dans le
système.

La source d’air est l’air atmosphérique, qui passe par un diffuseur et


un étage propulsif avant d’atteindre le turboréacteur. L’air (circuit
principal) est prélevé à 2,5 bar sur le turboréacteur, avant passage dans la
chambre de combustion. Cet air prélevé est refroidi dans un premier
échangeur de chaleur compact à courant croisés, sans mélange des fluides
Pré-dimensionnement d’un système 153

(échangeur primaire E1). L’air étant toujours trop chaud pour être envoyé
dans la cabine, il va être refroidi et ramené à la pression voulue par le
biais d’une machine à cycle à air. Il est donc comprimé à nouveau
à 3,9 bar environ, puis refroidi dans un second échangeur de chaleur
compact (échangeur secondaire E2), lui aussi à courants croisés et sans
mélange des fluides. Enfin, l’air est encore refroidi par détente dans une
turbine, et la pression est ramenée à 0,85 bar. Parallèlement, une partie de
l’air prélevé sur le turboréacteur est mélangé à l’air issu de la turbine,
avant d’être envoyé vers la cabine.

Le fluide de refroidissement dans les échangeurs est de l’air


dynamique prélevé à l’extérieur de l’avion par une écope, qui traverse
préalablement un diffuseur, pour atteindre une pression de 0,3 bar. Cet air
est ensuite refoulé à l’extérieur par une buse d’éjection.

Ce système simplifié n’intègre pas des composants ancillaires comme,


en particulier, les éléments de régulation de la température de l’air
conditionné ou de l’humidité de l’air dans le système.

Figure 8.2. Circuits du système de conditionnement d’air

Le problème de conception qui nous intéresse ici consiste notamment


à optimiser les structures internes des échangeurs thermiques satisfaisant
aux contraintes de fonctionnement imposées par l’environnement du
système. Ces échangeurs sont formés de plaques planes ou à ailettes, qui
154 La conception industrielle de produits 3

sont empilées et traversées à courants croisés par l’air principal et l’air


dynamique. Les surfaces d’échanges sont choisies parmi six surfaces
(figure 8.3) couramment utilisées dans le domaine aéronautique
[KAY 84], comme il y a deux échangeurs et deux circuits d'air, il y a
1296 (64) configurations possibles. De plus, les matériaux peuvent
différer, en fonction des températures rencontrées (inconel si T>473 K,
ou aluminium si T<473 K).

Ces surfaces d’échanges ont une influence déterminante sur les


performances du système de conditionnement d’air car elles assurent le
transfert thermique dans les éléments qui évacuent la chaleur à l’extérieur
du système. Pourtant, le concepteur maîtrise mal leurs performances qui
dépendent fortement du contexte de leur utilisation. Les effets physiques
fonctionnels qui assurent le transfert de chaleur entre les flux d’air dans
l’échangeur induisent aussi des effets nuisibles qui tendent à freiner le
flux d’air dans l’échangeur (pertes de charge) et à dégrader sa pression.
En sortie des échangeurs, les effets de compression ou de détente en sont
d’autant moins efficaces.

Figure 8.3. Différents types de surfaces d'échange [KAY 84]

L’équilibre de ces effets physiques dépend des caractéristiques du


système à l’échelle de l’avion, du système de conditionnement d’air et de
ses composants. Ce couplage multi-échelles ne peut être contourné sans
renoncer au concept du système et les concepteurs ne peuvent que tester à
l’aveugle différentes configurations de surfaces ou tenter d’exploiter des
configurations proches de celles qu’ils sont en train d’étudier. Dans ce
contexte, le développement d’outils d’aide à la décision permettant de
maîtriser ces couplages est d’un intérêt majeur pour cette technologie. De
plus, plusieurs situations de vie correspondant à des phases de vol
prépondérantes sont identifiées par l'avionneur : il s’agit notamment du
décollage, du vol en croisière et de l'atterrissage (tableau 8.1). Le système
de conditionnement d'air devant délivrer une température d'air constante
pour la cabine durant ces différentes phases de vol où l'altitude (et donc
Pré-dimensionnement d’un système 155

la température et la pression de l'air) ainsi que la vitesse relative de


l'avion par rapport à l'air varient fortement.

Vitesse avion Altitude Pression atmosphérique Température atmosphérique

Mach pieds mètres Pa (104) K

0,8 36080 11000 2.27 216.7

0,3 19680 6000 4.73 249.3

0,6 9840 3000 7.03 268.7

Tableau 8.1. Paramètres atmosphériques des points de vol prépondérants

8.2.2. Solveur et modélisation

Ce problème de conception a été traité à l’aide d’un solveur de


problème par satisfaction de contraintes implanté dans le logiciel
« Constraint Explorer® » (CE). Ce logiciel a été développé dans le cadre
du projet CO2 (projet RNTL « conception par contraintes ») coordonné
par la société Dassault-Aviation en collaboration avec des laboratoires
d’informatique (LINA à Nantes et LIP6 à Paris) et des laboratoires de
design industriel (TREFLE à Bordeaux et LIPSI à Bayonne). Cet outil est
un solveur CSP mixte qui s’appuie sur l’utilisation de l’analyse par
intervalles et le traitement numérique de problèmes intégrant un nombre
important de variables définies sur des domaines continus.

Les relations entre les variables, ainsi que les domaines des variables
constituent les contraintes. Les relations peuvent être des égalités, des
inégalités, des règles logiques. Les variables peuvent être réelles,
entières, énumérées, tabulées. Les variables discrètes permettent par
exemple de décrire les valeurs de composants standards.

Les variables définissant l'architecture du produit à concevoir


(dimension, caractéristiques des composants standards, matériau, masse,
nombre d'éléments, etc.) sont appelées variables de conception (Vco).
D’autre part, les critères sont des relations ou des ensembles de variables
qui définissent les performances et dont la valeur permet au concepteur
156 La conception industrielle de produits 3

de qualifier un concept de solution, puis de le valider [VER 04]. A l’aide


de ces critères associés à des concepts de solutions, le concepteur peut
choisir une solution et la développer dans les phases de conception
détaillée.

Ainsi, un problème de conception est décrit par un ensemble de Vco,


de critères et de contraintes. Une solution est un ensemble de valeurs
(pour toutes les variables de conception et variables critères) qui vérifient
l'ensemble des contraintes énoncées. Ces valeurs définissent une
configuration de conception particulière.

Une méthodologie a été proposée [SCA 05] pour identifier les


caractéristiques structurantes d'un problème de conception préliminaire,
qui sont nécessaires et suffisantes à ce stade de la conception. Ces
caractéristiques qui doivent être traduites sous forme de contraintes sont
liées au cahier des charges fonctionnel, à la description des phénomènes
physiques (flux fonctionnels mais aussi phénomènes indésirables
induits), aux règles métier et à la description des concepts ou composants
standards.

8.2.3. Modèle du problème de conception du SCA

La figure 8.4 présente la structure du système de conditionnement


d’air au travers d’un organigramme technique et indique, pour chaque
composant, le domaine des Vco (intervalle, liste de standards). La base
de connaissances décrivant le système [SEB 04] est constituée de
soixante-neuf contraintes et fait intervenir :
– vingt-trois variables d’état thermodynamiques (pressions,
températures, débits massiques, etc.),
– quatorze variables géométriques et structurelles (longueurs, types de
surfaces (figure 8.3), nombre de passes, etc.),
– huit variables critères (rendements, efficacités, trainée induite,
masse, etc.),
– vingt-quatre variables intermédiaires qui sont définies comme des
fonctions qui relient leur définition aux quarante-cinq variables
précédentes.
[∅1,∅2]
Pré-dimensionnement d’un système 157

[∅1,∅2]

[∅1,∅2]

[∆P1,∆P2]

[∅1,∅2]

[∆P1,∆P2]
[Lx1,Lx2]

[Ly1,Ly2]

[Lx1,Lx2]

[Ly1,Ly2]

Figure 8.4. Organigramme technique du système de conditionnement d’air

Les performances globales du système sont notamment liées à l’effet de


traînée induite par la présence du système de conditionnement d’air et aux
pertes de poussée du turboréacteur sur lequel est prélevé l’air qui alimente le
système. Ces deux effets tendent à augmenter la puissance que doivent
délivrer les turboréacteurs de l’avion pour voler à une vitesse déterminée. Ils
induisent aussi un accroissement de la masse de kérosène embarquée à bord
de l’avion et, par effet boule de neige, de la masse de la structure de l’avion
et de ses réacteurs. La traînée induite (∆Dra) provient de l’écope qui prélève
de l’air extérieur à la surface de l’avion pour alimenter le circuit d’air
dynamique. L’air dynamique est également freiné en traversant les
échangeurs thermiques. Les types d’ailettes et la structure des plaques
empilées dans les échangeurs thermiques ont une influence déterminante sur
cette traînée. Elles influencent aussi l’efficacité des échangeurs (à
maximiser) et donc l’efficacité du système de conditionnement d’air. Un
compromis doit être trouvé entre ces effets antagonistes.

8.3. Résolution et aide à la décision

L’algorithme de résolution de CE opère par une réduction progressive de


l’espace dans lequel se trouvent les solutions du problème et donc des
intervalles associés aux variables. Cet algorithme se décompose en trois
étapes : réduction des domaines, propagation des contraintes et bissection de
l’espace d’exploration dans lequel le solveur cherche les solutions du
problème.
158 La conception industrielle de produits 3

Les résultats partiels présentés ici correspondent à un point de vol de


l’avion à vitesse Mach 0,8 et à l’altitude de 11000 mètres. Il y a 294
solutions, c'est-à-dire 294 architectures possibles. Ce nombre reste important
mais aucun choix n'a été effectué jusqu'à ce stade de la conception. Pour
faciliter le choix, le front de Pareto de l’espace des solutions est recherché.
Dans ce cas, cet espace est réduit, en identifiant l'ensemble des solutions non
dominées du point de vue de la minimisation des critères suivants :
efficacités, trainée et masse.

Une solution (a) domine une autre solution (b) si deux conditions sont
vérifiées :
– la solution (a) n'est pas moins bonne que la solution (b) pour tous les
critères,
– la solution (a) est strictement meilleure que la solution (b) pour au
moins un des critères.

La représentation de l'espace des solutions doit faciliter le choix du


concepteur. D'une part, les solutions sont présentées en fonction de la
combinaison de variables de conception (ici le type de surface d'échange),
pour aider le concepteur à faire un choix parmi elles.

D'autre part, les solutions sont évaluées à l'aide d'un seul critère de
performance. Les constructeurs aéronautiques ont l'habitude de ramener les
variables critères à un impact sur la masse de l'avion. Ainsi, la traînée induite
∆Dra est ramenée à un équivalent de masse supplémentaire, et il est possible
d'obtenir la masse supplémentaire totale (∆M total) induite par le système de
conditionnement d'air.

Les figures 8.5 et 8.6 présentent les 294 solutions trouvées par le solveur,
positionnées sur l'espace des 1296 combinaisons possibles de types de
surfaces d'échange : les 216 premières combinaisons utilisent le type 1 pour
l'échangeur primaire, les six divisions parmi ces 216 correspondent à
l'utilisation des six types (figure 8.3) pour l'échangeur secondaire et ainsi de
suite. D’autre part, l'axe des ordonnées indique la valeur du ∆M total de
chaque solution.

La figure 8.5 représente l’espace des solutions pour le circuit d'air


principal, la figure 8.6 pour le circuit d'air dynamique.
Pré-dimensionnement d’un système 159

L'analyse de la figure 8.5 indique que les solutions satisfaisant toutes les
contraintes, pour le circuit d'air principal :
– utilisent plutôt les types 2, 3, 4, 5 pour l'échangeur primaire,
– n'utilisent pas les types 1 et 6 pour l'échangeur secondaire ; sauf lorsque
le type 5 est utilisé pour l'échangeur primaire, tous les types sont utilisés
pour l'échangeur secondaire – c'est dans ce cas qu'il y a le plus de solutions.

La figure 8.6 indique que les solutions satisfaisant toutes les contraintes,
pour le circuit d'air dynamique :
– utilisent plutôt les types 2, 3, 4 et 6 pour l'échangeur primaire,
– utilisent les types 2, 3, 4 et 6 pour l'échangeur secondaire, sauf lorsque
le type 5 est utilisé pour l'échangeur primaire, où il n'y a qu'une seule
solution.
350
∆M total (kg)

300

250

200

150

100

50
Sol. "257"

0 solutions
0 216 432 648 864 1080 1296

Type 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 Ech. secondaire


surface 1 2 3 4 5 6 Ech. primaire

Figure 8.5. Valeurs de ∆M total pour les 294 solutions, dont celles du front de Pareto –
Identification selon les types de surfaces d'échange circuit d'air principal

La recherche des solutions optimales de Pareto minimisant les critères


permet d'affiner ces observations. Les quarante-cinq solutions retenues par le
front de Pareto sont repérées sur les figures 8.5 et 8.6 par un carré. Cette
160 La conception industrielle de produits 3

sélection indique clairement qu'il est préférable d’utiliser les types 2 ou 5


pour l'échangeur primaire du circuit d'air principal par exemple. Même si la
solution 257 est la plus intéressante du point de vue du critère ∆M total, pour
les deux circuits, on peut toutefois observer que les solutions optimales de
Pareto ne sont en général pas forcément les plus intéressantes du point de
vue de ce critère global de performance.

Le choix final revient au concepteur, mais l’exploration de l’espace de


conception et cette visualisation des solutions permet l’aide au choix pour les
Vco. Ces résultats mettent en évidence le fait que, parmi les six types de
plaques à ailettes, certains ne permettent pas de faire fonctionner le système
de conditionnement d’air dans la configuration de vol envisagée.
350
∆M total (kg)

300

250

200

150

100

50 Sol. "257"

0 solutions
0 216 432 648 864 1080 129
Type 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 1 2 3 4 5 6 Ech. secondaire
surface 1 2 3 4 5 6 Ech. primaire

Figure 8.6. Valeurs de ∆M total pour les 294 solutions, dont celles du front de Pareto –
Identification selon les types de surfaces d'échange pour le circuit d'air dynamique

8.4. Discussion

Ces résultats sont issus du traitement numérique de l’ensemble des


contraintes du problème de conception et permettent de faire émerger des
solutions qui dépassent les perceptions intuitives du concepteur. En effet, le
choix des surfaces d’échange concerne des échelles internes des échangeurs
Pré-dimensionnement d’un système 161

thermiques et du système de conditionnement d’air. Certaines surfaces


s’avèrent plus performantes que d’autres du fait de l’ensemble des
phénomènes qui interagissent à toutes les échelles de ce système. Le
concepteur sait que les surfaces d’échange ont une très grande influence sur
les performances globales du système, mais la maîtrise de leur choix
nécessite le développement d’outils d’aide à la décision. L’intérêt de cette
démarche est de converger vers des solutions qui balayent exhaustivement
l’espace des solutions correspondant au modèle défini par le concepteur. Les
solveurs CSP basés sur l’analyse par intervalles garantissent ce type de
résultat.

Une étude est en cours et permet la prise en compte de quarante-huit


différents types de surfaces d'échange et la recherche de configurations
fonctionnant dans toutes les situations de fonctionnement du système de
conditionnement d'air.
CHAPITRE 9

Conception robuste

L’analyse de robustesse a pour objectif de connaître la sensibilité des


performances recherchées par rapport aux variabilités subies sur les
paramètres de conception ou sur l’environnement d’utilisation du produit. La
notion de variabilité est introduite pour être distinguée de celle de variation
(qui est utilisée jusqu’alors dans ce chapitre). En effet, concevoir un produit
revient à choisir des concepts de solutions définis chacun par un ensemble de
paramètres variant dans un ou des intervalles de valeurs constituant l’espace
de conception. Autour de chacun des points de l’espace de conception, des
perturbations définissent un espace de variabilités correspondant à des bruits,
des perturbations subies, des erreurs observées, considérées petites devant la
taille de l’espace de conception. Comme le signalent de nombreux auteurs
[CROS 03, ULL 95], il est important d’être capable de tenir compte de ces
variabilités (incertitudes ou bruits) pour pouvoir prendre des décisions en
conception.

L’analyse de la sensibilité des performances définies dans le cahier des


charges par rapport aux variabilités subies sur les différents paramètres de
conception ou sur l’environnement est appelée analyse de robustesse. Cette
analyse de robustesse est souvent mise en œuvre afin de définir le produit et
ses conditions d’utilisation qui garantissent le meilleur niveau de
performances quelles que soient les variabilités subies.

Chapitre rédigé par Nadège TROUSSIER.


164 La conception industrielle de produits 3

Une des approches permettant l’analyse de la robustesse se base sur


l’analyse des dérivées partielles des performances recherchées par rapport
aux différents paramètres subissant des perturbations. Cette approche n’est
valable que lorsqu’il est possible de décrire les performances sous la forme
de fonction regroupant des paramètres de conception et des variables
d’environnement, qui soient dérivables. Cela est parfois difficile à vérifier
que ce soit par manque de connaissance ou par la forme des fonctions
considérées, sachant qu’une expression fonctionnelle est parfois inadaptée –
dans le cas de l’évaluation de performances subjectives par exemple (voir
partie 1 de l’ouvrage). C’est pour cette raison que nous ne détaillerons pas
cette approche dans cette partie.

Une autre approche de la conception robuste est proposée par G. Taguchi


[FOW 95]. Elle se base sur l’analyse des effets issus d’une démarche de plan
d’expériences et utilise une représentation probabiliste des variabilités. Cette
approche présente l’avantage de considérer au sein de la même démarche des
paramètres et des performances de natures diverses et se trouve donc
particulièrement adaptée à la conception de systèmes complexes où des
décisions doivent être prises sur la base de l’évaluation de performances de
natures différentes, à l’aide de critères variés et dans des cas
d’interdépendance entre les paramètres de conception et les différentes
performances.

L’objectif de cette partie est d’utiliser la démarche de conception robuste


telle que proposée par Taguchi [FOW 95] sur l’exemple du treillis. Les
sections 6.1, 6.5 ont permis de définir le vocabulaire utilisé puis de présenter
comment explorer l’espace de conception. Ils ont également permis
d’identifier l’espace de décision parmi les valeurs des différents paramètres
de conception dans le but de définir les performances atteignables, puis
lorsque le cahier des charges est défini, de définir les solutions permettant de
répondre au cahier des charges.

Une fois connu l’ensemble des paramètres qui permettent d’atteindre les
spécifications, des critères peuvent être formalisés pour rechercher, au-delà
d’une solution convenable, la meilleure solution de conception. Parmi les
différents critères possibles, celui que nous proposons d’utiliser ici est celui
de la robustesse. En d’autres termes, nous allons chercher la solution de
conception qui garantie les performances recherchées quelles que soient les
variabilités sur les paramètres de conception.
Conception robuste 165

Dans l’exemple du treillis, les valeurs des paramètres de conception sont


identifiées dans la première partie de ce chapitre. Autour de ces valeurs, des
variabilités seront considérées pour tenir compte des incertitudes sur les
paramètres de conception, le processus de fabrication et sur l’environnement
d’utilisation. Une démarche d’analyse de robustesse est alors mise en œuvre
pour proposer la solution la plus robuste de l’espace de conception, dans le
cadre d’une conception sous incertitudes.

9.1. Introduction à la démarche de conception robuste de Taguchi

L’Axiomatic Design propose deux axiomes (celui de l’indépendance et


celui du minimum d’information) pour évaluer, tout au long du processus de
conception, la qualité de la conception [SUH 91]. Si ces axiomes sont
particulièrement intéressants pour la conception innovante de systèmes
« fonctionnellement découplés », ils ne sont généralement pas applicables
lors de la conception de systèmes complexes qui sont améliorés d’une
conception à la phase suivante dans un processus continu d’innovation. En
effet, les contraintes de conception sont souvent telles que les axiomes ne
peuvent être respectés dans la pratique. Par exemple, dans la formulation du
problème de conception utilisé pour le treillis considéré dans le chapitre 6,
les deux axiomes ne sont pas respectés. Dans ce cas, la résolution d’un
problème d’optimisation multi-objectif peut être utilisée pour trouver la
meilleure solution, comme dans l’illustration sur l’exemple du système de
refroidissement présenté dans le chapitre précédent. Cependant cette solution
optimale est souvent sensible aux variabilités sur les paramètres de
conception dues :
– à la fabrication (incertitudes gérées à l’aide de tolérances),
– à l’environnement (incertitudes ou variabilités subies, comme les
variations de température par exemple),
– à des diversités souhaitées dont on veut pouvoir tenir compte en
garantissant les performances (comme les préférences des utilisateurs, les
différentes situations d’usage par exemple).

9.2. La démarche appliquée sur un exemple

Par exemple, la meilleure solution identifiée précédemment pour le


treillis est sensible à plusieurs variabilités comme le montre la figure 7.1.
Dans cette figure, la performance s (coefficient de sécurité associé à la
166 La conception industrielle de produits 3

résistance à la flexion et au flambement) est donnée en fonction des


paramètres de conception a (paramètre de position du point B le long de CD)
et t (hauteur de section des barres du treillis).

Figure 9.1. Sensibilité de la solution optimale par rapport aux variabilités


sur les paramètres de conception a et t

Dans ce cas, une démarche de conception robuste, telle qu’introduite par


G. Taguchi et décrite dans [FOW 95] permet de trouver la meilleure solution
par rapport au niveau de performance atteint et la moins sensible aux
variabilités sur les paramètres de conception. L’approche de conception
habituelle vise à trouver la solution qui vérifie les spécifications
fonctionnelles, tout en minimisant les incertitudes sur les paramètres de
conception. Si des paramètres de conception peuvent être définis
précisément, d’autres restent variables et des tolérances sont posées. Ces
tolérances peuvent être considérées comme des perturbations potentielles
autour d’une valeur de référence. L’approche de conception robuste propose
alors de ne pas chercher à réduire les tolérances (ce qui généralement
dégrade le coût du produit) mais plutôt de tenir compte de ces variabilités
potentielles dans l’évaluation des performances. Taguchi s’appuie sur la
Conception robuste 167

méthode des plans d’expérience (PE) pour évaluer la sensibilité des


performances en tenant compte des incertitudes ou tolérances sur les
paramètres de conception. L’analyse des effets principaux et des
interactions, et l’analyse de la variance sont utilisées. Cependant, Taguchi
introduit une notion supplémentaire, le rapport signal sur bruit utilisé en
traitement du signal, pour tenir compte des bruits introduits par les
variabilités dans l’évaluation des performances. Les variabilités sont donc
introduites comme des facteurs bruits, autour d’une valeur de références,
dans le plan d’expériences. La solution la plus robuste est alors celle qui
maximise le rapport signal sur bruit, c'est-à-dire qui permet d’obtenir le plus
haut niveau de performance en comparaison avec la modification de
performance engendrée par la variabilité.

9.2.1. Construction du plan d’expériences

Le plan d’expérience considéré pour l’analyse du treillis est présenté dans


le tableau 9.1. Comme défini dans la figure, des paramètres de conception
supplémentaires sont introduits par rapport au paramétrage utilisé pour
l’exploration de l’espace de conception. Ces paramètres supplémentaires
permettent d’avoir des sensibilités plus importantes et de souligner ainsi les
différences entre « la meilleure solution » au sens de l’optimisation multi-
objectif et « la solution la plus robuste » au sens de Taguchi.

Les surfaces de réponses permettant de connaître les performances en


fonction des paramètres de conception sont identifiées soit à l’aide de
fonctionnelles (connues ici) soit à l’aide d’un premier plan d’expérience puis
une méthode d’identification des paramètres utilisant un critère tel que celui
des moindres carrés. Dans un objectif purement pédagogique, les
métamodèles sont identifiés à partir d’un PE sur l’exemple du treillis. Le
détail du développement est accessible dans le codes MATLAB fournis sur
le site Hermès : www.hermes-science.fr/yannou/cip.zip.

Ensuite, un nouveau PE est construit en limitant le nombre de paramètres


de conception considérés mais en ajoutant du bruit (variabilités) sur certains
de ces paramètres. Le rapport signal sur bruit est évalué pour chacune des
performances considérées comme indiqué dans [FOW 95]. L’information du
niveau de rapport signal sur bruit est alors ajouté aux surfaces de réponses
sous la forme de niveau de couleur. La solution la plus robuste se situe
168 La conception industrielle de produits 3

au point où le rapport signal sur bruit est le plus grand (et qui n’ai pas
nécessairement le plus haut niveau de performance).

Par exemple, la figure 9.2 illustre la représentation de certaines


performances (ici M et s) en fonction de deux paramètres de conception (h et
t), en tenant compte des variabilités sur α .

t wab L W h Noise on M s
-1 -1 -1 -1 -1 -1 142 141
-1 -1 -1 -1 -1 1 503,3 504,3
-1 -1 -1 -1 1 -1 507 506
-1 -1 -1 -1 1 1 657,1 658,1
-1 -1 -1 1 -1 -1 142 141
-1 -1 -1 1 -1 1 503,3 504,3
-1 -1 -1 1 1 -1 507 506
-1 -1 -1 1 1 1 657,1 658,1
-1 -1 1 -1 -1 -1 189,3 188,3
-1 -1 1 -1 -1 1 671 672
-1 -1 1 -1 1 -1 553,1 552,1
-1 -1 1 -1 1 1 794,9 795,9
-1 -1 1 1 -1 -1 189,3 188,3
-1 -1 1 1 -1 1 671 672
-1 -1 1 1 1 -1 553,1 552,1
-1 -1 1 1 1 1 794,9 795,9
-1 1 -1 -1 -1 -1 979,8 978,8
-1 1 -1 -1 -1 1 2154 2155
-1 1 -1 -1 1 -1 2166 2165
-1 1 -1 -1 1 1 2654 2655
-1 1 -1 1 -1 -1 979,8 978,8

Tableau 9.1. Les premières lignes du plan d’expérience utilisé pour identifier
un métamodèle linéaire avec interactions
Conception robuste 169

9.2.2. Le rapport signal / bruit

La solution la plus robuste identifiée est fournie en maximisant le rapport


signal sur bruit pour la performance que l’on cherche à garantir. Dans le
tableau 9.2, les performances pour lesquelles la robustesse est garantie est la
résistance mécanique s, en prenant en compte les variabilités sur le
paramètre de conception, a (position de l’articulation des deux barres le long
de la barre supérieure du treillis).

Figure 9.2. Exemples de surfaces de réponses sur lesquelles une information


sur la robustesse est ajoutée (figures de droite)
170 La conception industrielle de produits 3

t wAB L W h α M s
Robust
0.1 0.13 3.42 17115 1.5 0.5
design

Tableau 9.2. La solution la plus robuste pour la résistance mécanique s,


en considérant les variabilités sur a

9.2.3. Conclusion

Si la solution la plus robuste est recherchée, alors une combinaison de


fonctions telle que celles utilisées en Multi-Disciplinary Optimization
(MDO) peut être utilisée. Par exemple, les fonctions de désirabilité (ou
fonctions d’utilité ou encore fonction perte) peuvent être utilisées. La
solution la plus robuste peut alors être :
– celle qui fournit la fonction de désirabilité globale présentant le plus
fort rapport signal sur bruit ;
– celle qui maximise la fonction de désirabilité globale, construite à partir
des fonctions de désirabilité pour les rapports signal sur bruit de chaque
performance considérée.

9.3. Exercices de travaux dirigés : analyse de la robustesse des


performances

En reprenant l’exemple du treillis étudié pour la construction d’un


métamodèle, répondez aux questions suivantes.

Afin de trouver les valeurs des paramètres de conception optimisant les


performances :
– formuler le problème d’optimisation en utilisant des fonctions d’utilité
(ou de désirabilité) ;
– trouver l’optimum en utilisant le métamodèle basé sur une relation
fonctionnelle linéaire sans puis avec interaction.

En utilisant le métamodèle basé sur une relation fonctionnelle linéaire


sans et avec interactions, trouver une solution robuste, c’est-à-dire peu
sujette aux variabilités sur les valeurs des paramètres de conception (liées
aux intervalles de tolérances par exemple).
CHAPITRE 10

Conception fiable

Le processus de conception doit satisfaire un certain nombre de


critères, tels que le coût, la fiabilité, la performance et la durabilité. Le
défi dans ce processus consiste à définir le meilleur compromis entre des
exigences de conception contradictoires. Du point de vue pratique, la
complexité du processus ne facilite pas l'optimisation simultanée de tous
les paramètres intervenant dans la conception. Traditionnellement, cette
complexité est manipulée en décomposant le système en sous-processus
simples où chacune des exigences peut être satisfaite. Le concepteur peut
ainsi concentrer ses efforts sur un seul objectif, qui est généralement le
coût, et vérifie ensuite si les autres objectifs sont atteints ou non. Il est
clair que cette procédure ne permet pas de garantir la solution optimale
en termes de coût et de fiabilité.

La solution optimale fait intervenir des incertitudes inévitables liées à


la conception, à la fabrication et aux chargements, conduisant à un écart
plus ou moins important entre les performances réelles et espérées. Cet
écart s’accentue lorsque le système est optimisé, étant donné que les
marges résiduelles sont réduites à leurs bornes inférieures ; en d’autres
termes, la conception optimale est souvent très sensible aux incertitudes.
Dans la démarche de conception déterministe, la propagation des
incertitudes est prise en compte par l’introduction des « coefficients de
sécurité », sans lien direct avec les exigences de fiabilité, comme cela a

Chapitre rédigé par Alaa CHATEAUNEUF.


172 La conception industrielle de produits 3

été illustré dans le présent chapitre. Traditionnellement, le coût optimal


est optimisé, alors que l’objectif de fiabilité est supposé garanti par les
coefficients définis par les règlements ou par les pratiques de l’ingénieur.

En réalité, ces coefficients sont calibrés pour les situations moyennes


de conception et ne peuvent pas assurer des niveaux de fiabilité cohérents
pour les conditions spécifiques du système étudié. Ils peuvent parfois
mener à un manque de robustesse, étant donné que la procédure
d'optimisation recherche la solution la moins coûteuse, et souvent la
moins fiable, dans l’espace de conception.

Par ailleurs, la procédure d'optimisation doit permettre la


redistribution des rôles des incertitudes sur la base de la sensibilité des
objectifs de conception. Pour cette raison, l'optimisation déterministe ne
peut pas assurer des niveaux de fiabilité appropriés. Une conception peu
fiable peut conduire à des pertes économiques dues à la défaillance, alors
qu’une conception trop fiable présente le plus souvent un coût trop élevé.

L’optimisation fiabiliste vise l’obtention d’une conception équilibrée


en réduisant l’espérance du coût total, défini en termes de coût
initial (c’est-à-dire conception, fabrication, transport, etc.), de coût de
défaillance et de coût de maintenance. De plus, l’optimisation fiabiliste a
l'avantage de piloter la recherche de l’optimum par les variables les
mieux contrôlées dont l’impact sur le coût total est significatif.

Par ailleurs, les variables présentant de grandes incertitudes sont


pénalisées indépendamment de leur rôle mécanique. Dans ce sens, la
robustesse du système est atteinte, étant donné que le rôle des variables
incertaines est réduit au cours de la procédure d'optimisation.
Contrairement à l’optimisation déterministe, la solution ne réside pas
dans le domaine le plus sensible de l’espace de conception, mais plutôt
dans la région où l’objectif de fiabilité peut être garanti.

Dans ce qui suit, l’analyse de la fiabilité est d’abord présentée pour


permettre la compréhension des concepts fondamentaux. La formulation
de l’optimisation fiabiliste est ensuite développée et illustrée sur
l’exemple du treillis.
Conception fiable 173

10.1. Analyse de la fiabilité

La conception des systèmes implique la vérification d'un certain


nombre de règles qui résultent de la connaissance du comportement
mécanique et de l'expérience des concepteurs et des fabricants. Ces règles
traduisent la nécessité de limiter les effets des actions appliquées, tels que
les contraintes et les déplacements.

Chaque règle représente un événement élémentaire associé à un


certain scénario de défaillance. La fiabilité est définie par la probabilité
de satisfaire les critères de bon fonctionnement pendant toute la durée
d’exploitation. Deux types de variables existent dans le modèle de
conception fiabiliste [KHA 02] :
– les variables de conception d qui sont des paramètres déterministes
définissant l’état du système mécanique (par exemple : dimensions,
matériaux, chargements) et du modèle probabiliste (par exemple :
moyennes et écarts-types des variables aléatoires). Ces variables sont
utilisées dans le contrôle et l'optimisation du système ;
– les variables aléatoires X représentant les incertitudes et les
fluctuations, dont les réalisations sont notées x. Elles interviennent dans
la description du scénario de défaillance. Chacune des variables
aléatoires est définie par sa loi de probabilité et les paramètres
statistiques associés (généralement, la moyenne et l’écart-type).

L’analyse de la fiabilité nécessite l’évaluation de la probabilité de


défaillance par rapport à chacun des scénarios de dysfonctionnement.
Pour cela, une fonction de performance G(x,d) est définie tel que
G(x,d) ≤ 0 indique l'état de défaillance et G(x,d) > 0 indique l'état de
sûreté. La fonction de performance G(x,d) est aussi connue sous les noms
« fonction d'état limite » ou « marge de sûreté ».

La probabilité de défaillance est ainsi obtenue par l’intégration de la


densité de probabilité conjointe sur le domaine de défaillance
(figure 10.1) :

Pf (d ) = ∫ f (x, d ) dx
X
G ( x ,d )≤0
174 La conception industrielle de produits 3

Figure 10.1. Distribution conjointe et probabilité de défaillance

Pour illustrer ce concept, considérons le cas d’une fonction de


performance donnée par la marge entre la résistance R et la sollicitation S, où
les deux variables sont normales et indépendantes. La fonction de
performance est donnée par : G(x,d) = R-S. Dans ce cas, la probabilité de
défaillance (P(d)) est simplement donnée par :

m R − mS
Pf (d ) = Φ (− β (d )) avec β (d ) = (10.1)
σ R2 + σ S2

Où Φ(∙) est la fonction de répartition de Gauss, β (d) est l’indice de


fiabilité, mR, mS, σR et σS sont respectivement les moyennes et les écarts-
types de la résistance et de la sollicitation. Pour cette configuration simple, la
variable d'optimisation est généralement la résistance moyenne mR. L’écart-
type σR peut être également une variable d'optimisation si la relation entre le
contrôle de qualité et le coût peut être établie.

Dans les problèmes industriels, la fonction de performance ne peut pas


être écrite sous forme linéaire en termes de variables normales, et par
conséquent, le calcul plus ou moins approché de la probabilité de défaillance
devient indispensable. L'intégration directe de l’équation de probabilité de
défaillance est impossible pour des raisons de précision, de coût de calcul de
Conception fiable 175

la réponse mécanique et de dimension de l’espace d’intégration. Trois


méthodes numériques peuvent être utilisées pour obtenir une approximation
de la probabilité de défaillance [LEM 05] :
– la méthode des simulations de Monte Carlo permet d'estimer la probabilité
de défaillance pour un problème général. Elle a deux avantages principaux :
1. la possibilité de traiter des problèmes complexes (non-linéarité,
discontinuité, variables continues et discrètes, etc.) ;
2. l'implémentation facile dans un modèle mécanique quelconque.

Cependant, les deux inconvénients principaux sont :


1. le temps de calcul élevé, surtout pour des systèmes réels avec de
faible probabilité de défaillance ;
2. le bruit numérique dû aux tirages aléatoires, conduisant à des
fluctuations et des difficultés de calcul des gradients ([ENE 94a],
[ENE 94b]) ;
– la méthode du premier ordre, connue sous le nom FORM, est basée sur
l'approximation de la fonction de performance dans l'espace standard en
utilisant le développement asymptotique. Un algorithme d'optimisation est
appliqué pour la recherche du point de défaillance le plus probable. Cette
méthode est souvent suffisante dans la majorité des cas industriels. Dans le
contexte de l’optimisation fiabiliste, FORM présente les avantages suivants :
1. grande efficacité numérique ;
2. précision des calculs des gradients de la probabilité de défaillance.

Les inconvénients principaux sont :


1. la précision limitée et les difficultés de convergence dans les cas
de forte non linéarité ;
2. le temps de calcul en cas de grand nombre de variables aléatoires ;
– les méthodes de surface de réponse sont classiquement utilisées pour
l’approximation de la réponse mécanique, par la construction d’un méta-
modèle (voir la première partie de ce chapitre). Les polynômes quadratiques
sont convenables pour l'approximation locale des systèmes structuraux. La
grande partie du coût de calcul réside dans l'évaluation des coefficients du
polynôme. Les avantages sont principalement :
1. la réduction du temps de calcul pour un nombre modéré de
variables aléatoires ;
176 La conception industrielle de produits 3

2. la possibilité de coupler la fiabilité et les algorithmes


d'optimisation pour augmenter l’efficacité.

L'inconvénient le plus commun est le grand nombre de calculs


mécaniques pour un nombre modéré de variables.

Parmi ces trois possibilités, la méthode du premier ordre FORM est


retenue pour la plupart des applications pratiques. Dans cette approche, la
probabilité de défaillance Pf est approchée par l'expression [DIT 96] :

Pf = Pr [G (x, d ) ≤ 0] ≈ Φ(− β ) (10.2)

Où Pr[.] est l'opérateur de probabilité, Φ(.) est la fonction de répartition


de Gauss et β est l’indice de fiabilité défini, selon Hasofer et Lind [HAS 74],
par la résolution du problème d'optimisation sous contrainte (figure 10.2) :

β = min V (T(x) ) = ∑ (T (x))


2

i
i
(10.3)
sous : G (x, d ) ≤ 0

Où V(⋅) est la distance entre le point médian (correspondant à l'origine du


repère normé) et le domaine de défaillance dans cet espace normé et T(x) est
une transformation probabiliste appropriée (c’est-à-dire ui = Ti(xj)). L'image
de la fonction de performance G(x,d) dans l'espace normé est notée : H(u,d).
La solution de ce problème est appelée « le point de défaillance le plus
probable » ou « le point de conception », noté P*, ou bien x* dans l'espace
physique et u* dans l’espace normé.

x2 Espace physique u2 Espace normé


Défaillance
Défaillance Gu(u,d)<0
G(x,d)<0 P* MPP
u*2
mX 2 G(x,d)=0 α Gu(u,d)=0
β
Sûreté
mX 1 x1 u*1 u1

Figure 10.2. Indice de fiabilité et point de défaillance le plus probable


Conception fiable 177

Dans le cas de deux variables aléatoires, la figure 10.3 illustre les


différents points impliqués dans la conception : le point moyen mX
représente la résistance et la sollicitation au fonctionnement, le point
caractéristique xk représente les valeurs garanties de résistance et les
situations de charge extrême (elles correspondent souvent à des fractiles
de 5 % et de 95 % respectivement) et finalement le point de défaillance le
plus probable P* correspond à la configuration où la densité de
probabilité de défaillance est la plus élevée. La marge de sécurité
correspond à l’éloignement du point moyen par rapport au point de
défaillance le plus probable. De même, les coefficients partiels de
sécurité sR et sS peuvent être définis soit par rapport au point moyen, soit
par rapport au point caractéristique.

mR s* ⎛ rk s*⎞ (10.4)
sR = et sS = ⎜⎜ ou sR = et ss = ⎟
r* mR ⎝ r* sk ⎟⎠

s
f S(s),fR (r) Résistance
Sollicitation R
P* Etat limite
S s*

sk
xk
G(x,d) = 0
mS
mX
r
mS sk rk mR s, r r* rk mR
s*=r*

Figure 10.3. Moyenne, valeur caractéristique et point de défaillance

10.2. Comparaison des conceptions déterministe et fiabiliste

L’optimisation déterministe vise à réduire le coût initial CI(d) sous les


contraintes gj(d,γ) ≤ 0, avec j = 1,2,…,ng ; où d est le vecteur des paramètres
de conception, γ est le vecteur des coefficients de sécurité et ng est le nombre
de contraintes.
178 La conception industrielle de produits 3

Le problème d'optimisation est écrit comme suit :

min C I (d )
d (10.5)
sous : g j (d, γ ) ≤ 0 pour j = 1,2,K, n g

Dans ce problème, la fiabilité est supposée garantie par l'introduction des


coefficients de sécurité dans les équations des contraintes. À titre d’exemple,
considérons la limitation de la contrainte mécanique : g = σ - fy /γ , où σ est
la contrainte mécanique, fy est la résistance du matériau et γ est le coefficient
de sécurité. Ce coefficient doit être choisi tel que la probabilité de
dépassement de la résistance soit négligeable, afin de pouvoir exploiter le
système sans risque significatif.

Il est souvent supposé que les coefficients de sécurité sont


convenables, indépendamment de la configuration optimale choisie.
Toutefois, pour la plupart des systèmes, il peut être démontré que le
niveau de sûreté n'est pas indépendant du choix des paramètres de
conception. L’application du coefficient de sécurité global se traduit par
une simple translation de la contrainte d’optimisation (réduction de
l’espace de conception), comme l’illustre la figure 10.4a. Autrement dit,
l'état limite de défaillance g(d) est transformé en un état limite sûr g(d,γ),
à travers l’introduction du coefficient de sécurité pour tenir compte des
incertitudes. En partant du point initial x0, l’optimisation déterministe
recherche la conception optimale d* qui est souvent localisée sur la
frontière de l’espace de conception. Par ailleurs, l’optimisation fiabiliste
consiste à rechercher la solution optimale, tel que l'état de limite de
défaillance soit maintenu suffisamment loin du point de fonctionnement.
Cela dit, l’état limite de défaillance doit rester sur le niveau de fiabilité
objectif (figure 10.4b).

Cette approche permet ainsi de tenir compte des dispersions relatives


des différentes variables du système, au lieu d’une réduction
homothétique de l'espace de conception. Il est clair que même pour les
cas simples, les deux solutions peuvent être très différentes. Dans ce
sens, l’optimisation fiabiliste permet l’obtention du coût optimal, sans
compromettre la fiabilité du système.
Conception fiable 179

Contrainte de
s
conception fiable s g(d) = 0 Etat limite

γ Solution Solution
optimale optimale
Etat limite Iso-fiabilité
t

d uc
d* on
s* g(d) = 0
uc ti
é d
R
g(d,γ ) = 0 s* d*
x0 o ût x0
d uc
on
ucti
R éd r r
r* r*
a) Optimisation déterministe b) Optimisation fiabiliste

Figure 10.4. Comparaison de l’optimisation déterministe et fiabiliste

Lorsque plusieurs états limites sont impliqués dans le


dimensionnement du système, l’optimisation déterministe recherche
l’optimum à l’intérieur du domaine réduit par les coefficients de sécurité
(figure 10.5). Le choix de ces coefficients reste arbitraire pour chacun des
états limites.

Etant donné que les incertitudes et les conséquences ne sont pas


identiques pour les différents critères de conception, il n’est pas optimum
de prendre un coefficient identique pour tous les états limites. La
difficulté majeure réside dans le choix des coefficients de façon
cohérente et justifiée.

L’optimisation fiabiliste offre une mesure rationnelle de la marge qu’il


faut prendre pour chacun des critères de conception [AOU 08] ; ce qui
permet de garantir le niveau de fiabilité cible pour chacun de ces critères
(figure 10.6). En conséquence, la solution obtenue est orientée en
fonction de la propagation des incertitudes dans les différents critères de
conception.
180 La conception industrielle de produits 3

Optimum
déterministe

x2 Etat limite avec


coefficients partiels
Etat limite réel

Courbes
d’iso-fiabilité

Optimum
fiabiliste

x1

Figure 10.5. Les solutions de type déterministe et fiabiliste


pour deux critères de conception

La prise en compte des incertitudes peut être également considérée en


observant le coefficient de sécurité. Lorsque la conception optimale est
identifiée pour un coefficient de sécurité donné, les aléas du système
conduisent à une variabilité de la valeur réelle de ce coefficient (c’est-à-
dire la valeur spécifiée dans l’optimisation correspond à la valeur
moyenne de la distribution probabiliste).

Les réalisations aléatoires produisent ainsi une distribution


probabiliste du coefficient de sécurité (figure 10.6). La fiabilité
correspond à la probabilité que les réalisations de facteur de sécurité
restent supérieures à l’unité (c’est-à-dire s > 1).
Conception fiable 181

Figure 10.6. Distribution du facteur de sûreté global

Il est actuellement admis que l'approche des coefficients de sécurité, ne


permet pas d’assurer les niveaux de sécurité exigés, puisqu’ils ne considèrent
pas explicitement la probabilité de défaillance. L’optimisation fiabiliste tient
compte de l'évolution des marges de sécurité, en vue de la recherche du
meilleur compromis entre le coût et la fiabilité.

Afin d'illustrer cette idée, considérons le treillis à deux barres illustré sur
la figure 7.1. Les variables de conception wAB et t doivent être définies pour
satisfaire les critères de résistance en flexion au point B et en flambage de la
barre AB. Pour l'optimisation déterministe, il est indispensable d’introduire
les coefficients de sécurité sσ et sF, respectivement ; le coefficient de sécurité
global s est le minimum de ces deux coefficients. Le problème
d’optimisation s’écrit :

⎛4 3 ⎞
min M = WAB + WCD = ρ gtL ⎜⎜ wAB + ( wAB − 0.025 ) ⎟

wAB , t
⎝ 9 ⎠
σr 2LW σr
Sous : g1 = σ b − = − ≤0 (10.6)
sσ ( wAB − 0.025 ) t 2 sσ

F 9π ² E wAB t 3
Et : g 2 = FAB − b = 3W − ≤0
sF 64 L2 sF
182 La conception industrielle de produits 3

Où g1 et g2 sont les deux critères de dimensionnement. Pour L = 3 m,


W = 15 kN et t = wAB = 0,10 m, le coefficient de sécurité est égal à 1,875.
Pour tenir compte des dispersions des variables, nous considérons un
coefficient de variation de 15 % pour W et σr, et de 5 % pour t, wAB et E. Les
tirages aléatoires permettent de générer différentes configurations du treillis.
Pour chacune de ces configurations, le coefficient de sécurité est évalué et sa
distribution est ainsi obtenue, comme l’indique la figure 10.7. L’observation
de cet histogramme montre que malgré la valeur moyenne élevée
(s = 1,875), il existe une probabilité non négligeable d’avoir des coefficients
inférieurs à l’unité ; dans notre cas, cette probabilité est égale à 8 %. La forte
dispersion du coefficient de sécurité nécessite une marge supplémentaire
pour diminuer la probabilité de défaillance (c’est-à-dire probabilité d’avoir
s ≤ 1).

0,12

0,1
Défaillance

Sécurité

0,08
Fréquence

0,06

0,04

0,02

0
1

2
8

8
0,

1,

1,

1,

1,

2,

2,

2,

2,

Coefficient de sécurité

Figure 10.7. Distribution du coefficient de sécurité due aux incertitudes dans le système

Cet exemple montre clairement que, même pour un petit système,


l’ajustement des coefficients de sécurité n’est pas si simple. La valeur cible
de ce coefficient est directement liée à la propagation des incertitudes dans le
modèle de comportement. La complexité de l’analyse des incertitudes croît
largement dans les problèmes industriels, impliquant des fonctions d’états
limites non linéaires et des variables non gaussiennes et/ou corrélées. Pour
cette raison, l'optimisation basée sur les coefficients de sécurité ne peut pas
donner des réponses cohérentes pour la prise de décision en tenant compte
des incertitudes.
Conception fiable 183

10.3. Formulation de l’optimisation fiabiliste


D’une façon générale, l’optimisation fiabiliste consiste à minimiser
l’espérance du coût total CT (figure 10.8), exprimé en fonction du coût initial
CI (c’est-à-dire conception, fabrication, transport et installation) et du coût
de défaillance Cf [MOS 97, RAC 01].

min : CT (d ) = C I (d ) + C f Pf (d )
d (10.7)
sous : g j (d ) ≤ 0

Cette expression du coût total indique que l'augmentation possible du


coût initial doit être équilibrée par la diminution du risque de défaillance. La
minimisation est effectuée pour les paramètres de conception intervenant
dans la fonction d’état limite, qui peuvent être également des paramètres de
distribution probabiliste.

Dans beaucoup de cas, les conséquences sont indépendantes du taux de


défaillance ; le coût de défaillance est dû à la reconstruction et aux
dommages directs et indirects de la défaillance. Toutefois, pour des taux de
défaillance élevés, le coût de défaillance ne peut pas être proportionnel, étant
donné que les dommages indirects (mauvaise publicité, pertes de marchés,
mauvaise opinion publique sur l’entreprise et/ou sur le législateur,
accélérations des conséquences, etc.). Par exemple dans l'industrie
automobile, des défauts observés sur un grand nombre de véhicules
engendrent le rappel de l’ensemble de la production, en plus des effets
médiatiques considérables.
Coût Espérance du
coût total CT
Espérance du coût
de défaillance
CF = Cf Pf
Coût total
minimum

coût initial CI

Probabilité de défaillance
Niveau optimum Pf
de fiabilité

Figure 10.8. Evolution des coûts en fonction de la probabilité de défaillance


184 La conception industrielle de produits 3

Une formulation équivalente de l’équation (10.7) consiste à maximiser


la fonction d'utilité U(d) ([FRA 95], [FRA 03]) :

max : U (d ) = B(d ) − CI (d ) − E [L(X, d )]


d (10.8)
sous : g j (d ) ≤ 0

Où B(d) représente les bénéfices réalisés par l’exploitation du


système, CI(d) est le coût initial, L(X,d) sont les pertes liées aux coûts
d'inspection, de maintenance et de défaillance, et E[.] est l’opérateur
d’espérance mathématique.

En raison des difficultés dans l’estimation du coût de défaillance


(surtout lorsqu’il s’agit de vies humaines, de l’environnement et des
conséquences médiatiques et politiques), l'usage direct de l'équation
(10.8) n'est pas pratique et une alternative consiste à minimiser le coût
initial sous contrainte de fiabilité cible [MOS 97] :

min : C I (d ) + C f Pf (d )
d

sous : β (d ) ≥ β t (10.9)
: d L ≤ d ≤ dU

Où dL et dU sont respectivement les bornes inférieures et supérieures


des variables de conception et βt est l’indice de fiabilité cible, qui est
calibré par des considérations socio-économiques. Cette formulation
représente deux problèmes d'optimisation imbriqués : l'un concerne la
recherche de l’optimum et l’autre concerne le calcul de la fiabilité. Dans
l'espace des variables aléatoires, l'analyse fiabiliste nécessite des appels
mécaniques, alors que dans l'espace de conception, la procédure
d’optimisation modifie la configuration du système et nécessite la
réévaluation du niveau de fiabilité à chaque itération. Pour cette raison, la
résolution des deux problèmes (d’optimisation et de fiabilité) implique
des ressources de calcul considérables, ce qui limite sérieusement les
domaines d’application de cette approche. De nombreux travaux de
recherche sont en cours pour permettre la réduction des temps de calcul
du problème couplé.

D’une façon générale, le problème d’optimisation fiabiliste peut prendre


des formes différentes en fonction de l’objectif recherché.
Conception fiable 185

– RBDO1 : minimiser le coût de conception sous les contraintes de


fiabilité :
min : CI ( d ) min : C I ( d )
d d
sous : β ( d ) ≥ βt ou sous : Pf ( d ) ≤ Pf t (10.10)
et : g j ( d ) ≤ 0 et : g j ( d ) ≤ 0

Où βt est l’indice cible et Pf t est la probabilité de défaillance admissible.

– RBDO2 : maximiser la fiabilité sous des contraintes de coût :

max : β ( d ) min : Pf ( d )
d d
sous : C I ( d ) ≤ CIt ou sous : C I ( d ) ≤ C I t (10.11)
et : g j ( d ) ≤ 0 et : g j ( d ) ≤ 0

– RBDO3 : maximiser la fiabilité par unité de coût :

max : β ( d ) C I ( d ) min : CI ( d ) ⋅ Pf ( d )
d ou d (10.12)
sous : g j ( d ) ≤ 0 sous : g j ( d ) ≤ 0

Ce qui est équivalent à la minimisation du rapport coût/fiabilité.

min : CI ( d ) β ( d ) max :1 CI ( d ) Pf ( d )
d ou d (10.13)
sous : g j ( d ) ≤ 0 sous : g j ( d ) ≤ 0

Cette formulation est particulièrement utile quand il n’y a pas de


contrainte sur le coût total.

– RBDO4 : minimiser l’espérance du coût total sous des contraintes de


fiabilité :

min : CI ( d ) + C f Pf ( d ) min : CI ( d ) + C f Pf ( d )
d d
sous : β ( d ) ≥ βt ou sous : Pf ( d ) ≤ Pf t (10.14)
et : g j ( d ) ≤ 0 et:g j ( d ) ≤ 0
186 La conception industrielle de produits 3

10.4. Conclusion et démarche pratique pour une maîtrise globale des


performances

L’optimisation sous incertitude est un outil puissant pour la


conception robuste des systèmes. Elle consiste en l’exploration de
l’espace de conception, suivie de l’analyse de robustesse et de fiabilité.
Etant donné la complexité des systèmes à étudier, la mise en place d’un
métamodèle est indispensable pour la réalisation de ces tâches.

L’exploration de l’espace de conception permet de délimiter le


domaine dans lequel des solutions optimales peuvent être envisagées.
Cette étape est essentielle pour permettre une identification efficace des
solutions à sélectionner. La programmation par contrainte s’avère un
outil efficace pour cette phase d’exploration.

La construction d’un métamodèle est basée sur la technique des plans


d’expériences, permettant de déterminer les effets des facteurs et leurs
interactions. Ces informations sont indispensables pour la conception et
l’optimisation des produits. Elle permet d’identifier les solutions
robustes, compte tenu des variabilités des conditions de fabrication et de
service.

La considération explicite du niveau de fiabilité nous permet


d'optimiser le coût total où la solution devient moins sensible aux
incertitudes. Contrairement à l'optimisation déterministe, basé sur le
coefficient de sécurité, l’optimisation fiabiliste nous permet de moduler
les marges en fonction de l’impact des incertitudes sur les différents
critères de conception. Ainsi, les coefficients de sécurité sont définis de
façon optimale, en opposition à l’optimisation déterministe où les
coefficients sont définis à l’avance.

En fonction des caractéristiques des paramètres de conception


(stabilité, incertitudes, variabilités, dispersions. Quelques règles :
– piloter l’optimisation avec les paramètres de conception les moins
incertains, variables et à faibles dispersions ;
– rechercher la solution optimale où les performances sont robustes et
la fiabilité peu sensible.
Conception fiable 187

10.4.1. Exercices de travaux dirigés : analyse de la fiabilité des performances

L’optimisation fiabiliste est maintenant appliquée au treillis considéré


au chapitre 7, figure 7.1.

Partie A : analyse de base


Ecrire les états limites relatifs aux deux scénarios de défaillance.
Formuler le problème d’optimisation fiabiliste pour un objectif de
fiabilité βt = 2 pour les deux états limites.
Pour des coefficients de variation de 15 % pour la charge appliquée W,
de 8 % pour la résistance du matériau σr et de 2 % pour la longueur L,
résoudre le problème d’optimisation déterministe et fiabiliste. On adopte
des lois normales et des fractiles : W98% = 20 kN et σr 2% = 225 MPa.
Trouver la masse optimale satisfaisant un niveau de fiabilité de 2
(probabilité de défaillance de 10-2).
Etudier l’évolution du coût optimal en fonction des coefficients de
variation de w et W ; on prend une plage d’étude variant de 0 % à 20 %.
En déduire les sensibilités des variables.

Solution de la partie A
Le dimensionnement du treillis doit respecter les deux limitations :
– la contrainte de flexion σb dans l’élément CD doit rester inférieure à
la limite élastique σr, égale à 225 MPa pour l’acier utilisé. Cette
contrainte est calculée par :

6 MB PL ρgwCDt L2
σb = avec : MB = + (10.15)
wCD t 2 3 18

– la force de compression FAB dans l’élément AB doit être inférieure à


la limite de flambage Fb, cette force est donnée par :

⎛ 3P 3ρ gwCD t L ⎞ 1
FAB = ⎜ + ⎟ cos θ (10.16)
⎝ 2 4 ⎠
188 La conception industrielle de produits 3

Où θ est l’angle entre la verticale et la barre AB (par défaut : θ = 60°) et


la charge de flambement de la barre AB s’écrit sous la forme :

2 2 3
π EI π E t wAB
Fb = = (10.17)
2 2
L AB ⎛ 2L ⎞
12 ⎜ ⎟
⎝ 3 sin θ ⎠

Ainsi, la minimisation de la masse totale de la structure doit tenir compte


des deux états limites :

G1 = σ r − σ b ( wCD , t , L, P )
(10.18)
G2 = Fb ( wAB , t , L ) − FAB ( wCD , t , L, P )

Pour un niveau de fiabilité cible βt = 2 (correspondant à une probabilité


de défaillance de 1 %), le problème d’optimisation fiabiliste s’écrit :

⎛4 3 ⎞
min W = ρ gtL ⎜ wAB + wCD ⎟
wAB , wCD ,t ⎜ 9 ⎟ (10.19)
⎝ ⎠
Sous : β1 ≥ 2 et β2 ≥ 2

Où β1 et β2 sont respectivement les indices de fiabilité relatives aux états


limites G1 et G2.

Dans un premier temps, les incertitudes sont attribuées à la charge


appliquée W, à la résistance du matériau σr et à la longueur L, où les
coefficients de variation sont respectivement 15 %, 8 % et 2 % (toutes les
lois sont supposées normales). La moyenne de W est déterminée en prenant
un fractile de 98 % égal à 20kN et la moyenne de σr est obtenue pour un
fractile de 2 % égal à 225 MPa. La figure 11.2 montre l’évolution de l’indice
de fiabilité pour les deux états limites, en fonction des variables de
conception wAB et t (avec wCD = wAB–0,025). Pour le niveau de fiabilité visé,
l’espace de conception fiable se réduit aux points au dessus du niveau β ≥ 2.
La recherche du poids minimum dans ce sous-espace conduit à la solution
optimale : wAB = 0,091 m et t = 0,10 m, correspondant à une masse globale
de 4 180 kg. Pour cette solution, l’état limite de flexion s’avère le plus
critique ; il indique un coefficient de sécurité global de 1,38.
Conception fiable 189

Etat limite de flexion G1 Etat limite de flambage G2

Figure 10.9. Evolution de l’indice de fiabilité en fonction de t et wAB

Partie B : incertitudes sur l’ensemble des paramètres


Dans le but de prendre en compte les différentes sources d’incertitudes,
une nouvelle configuration du treillis est étudiée, en considérant les variables
aléatoires définies dans le tableau 10.1. Les variables de conception sont les
moyennes des propriétés géométriques : t, wAB et wCD ; il est à noter que wAB
et wCD sont indépendantes dans la suite de l’étude.

Paramètre Symbole Moyenne C.V. distribution


Charge appliquée W (kN) 100 0.15 Gumbel
Module d’élasticité E (GPa) 200 0.08 Gumbel
Limite élastique σr (MPa) 225 0.08 Lognormale
Masse volumique ρ (kg/m )3
7860 0.10 Weibull
Longueur L (m) 5 0.05 Normale
Hauteur de la barre AB WAB (m) wAB 0.05 Normale
Hauteur de la barre CD WCD (m) wCD 0.05 Normale
Epaisseur t (m) t 0.05 Normale

Tableau 10.1. Variables aléatoires et variables de conception dans le treillis


190 La conception industrielle de produits 3

Dans l’optimisation déterministe, la résistance du matériau est réduite par


un coefficient de sécurité partiel : sr = 1,5 ; cela dit, la contrainte admissible
est σr/sr. La charge appliquée est décomposée en deux parties : poids propre
majoré par un coefficient de sécurité partiel sg = 1,35 et charge d’exploitation
W majorée par un coefficient de sécurité partiel sp = 1,5.

Déterminer les valeurs des paramètres : t, wAB et wCD, permettant de


minimiser le poids de la structure.

Solution de la partie B
Le tableau 10.2 compare les résultats de l’optimisation déterministe et
fiabiliste. Il est observé que l’optimisation déterministe conduit à un niveau
élevé de coût et de fiabilité. L’optimisation fiabiliste permet une réduction
du poids total de 12,7 %, correspondant à l’ajustement du niveau de fiabilité
au niveau de l’objectif : β1 = β2 = βt = 2. L’optimisation basée sur les
coefficients de sécurité ne permet ni d’ajuster le niveau de fiabilité par
rapport à l’objectif, ni l’obtention d’un niveau de fiabilité homogène pour les
deux critères de conception.

Méthode Masse (kg) β1 β2 wAB wCD t


d’optimisation (cm) (cm) (cm)

Déterministe 787,17 4,86 2,94 6,13 20,21 26,94


Fiabiliste 678,88 2,00 2,01 6,08 15,69 20,91

Tableau 10.2. Solutions obtenues par les deux méthodes d’optimisation

Le tableau 10.3 indique les coordonnées du point de défaillance le plus


probable et les coefficients de sécurité correspondants. L’écart entre le point
de défaillance et le point moyen traduit l’importance de la variable sur le
niveau de fiabilité. Le chargement représente la variable la plus influente sur
le niveau de fiabilité. Le coefficient partiel du chargement passe de 1,26
pour l’état limite de plasticité G1 à 1,17 pour l’état limite de flambage G2 ; ce
dernier est donc moins sensible aux fluctuations de la charge appliquée. La
comparaison avec l’approche déterministe montre les capacités de
l’approche fiabiliste dans l’ajustement des coefficients partiels en fonction
de la sensibilité relative des variables incertaines, ce qui n’est pas la même
pour les différents modes de défaillance.
Conception fiable 191

P* E* σr* ρ∗ L* wAB* wCD* t*


(kN) (GPa) (MPa) (kg/m3) (m) (cm) (cm) (cm)
G1 126.74 197 212.48 7739 5.10 6.08 15.37 20.06
G2 117.45 191 224.28 7754 5.17 5.67 15.70 20.56
Coefficients de sécurité
γG1 1.26 1.04 1.06 1.01 1.03 1.00 1.02 1.04
γG2 1.17 1.05 1.00 1.01 1.03 1.07 1.00 1.02

Tableau 10.3. Points de défaillance les plus probables et coefficients de sécurité

Partie C : treillis avec traverse inclinée


Le treillis est maintenant considéré en introduisant l’inclinaison de la
barre AB comme variable de conception supplémentaire (figure 10.10). Cette
inclinaison est définie par l’angle α.

Figure 10.10. Treillis avec traverse inclinée

Déterminer les valeurs des paramètres : t, wAB, wCD et α permettant de


minimiser le poids de la structure, sous un objectif de fiabilité égal à 2.

Solution de la partie C
La force normale FAB dans l’élément AB prend la forme :

L ⎛ ρ gwCD t L ⎞
FAB = ⎜ P+ ⎟ (10.20)
h sin θ ⎝ 2 cos α ⎠
192 La conception industrielle de produits 3

Et le moment de flexion maximum s’écrit :

PL ρ gwCD t L2
MB = + (10.21)
3 18cos α

L’angle α engendre de forte non linéarité dans les fonctions d’état limite,
permettant de tester la stabilité de la procédure d’optimisation. L’inclinaison
optimale correspond à 25,4° pour l’optimisation déterministe et de 24,5°
pour l’optimisation fiabiliste. Le tableau 10.2 montre des différences
importantes dans les solutions optimales, en particulier pour wCD et t. La
masse optimale est réduite de plus de 22 %. La figure 10.11 montre la
convergence des algorithmes au cours des itérations. Pour les deux états
limites, les indices de fiabilité tendent vers la valeur cible βt = 2 ; ce qui évite
toute possibilité de surdimensionnement.

Méthode Masse β1 β2 wAB wCD t α (°)


d’optimisation (kg) (cm) (cm) (cm)
Déterministe 716,96 4,87 2,77 5,36 20,24 27,00 25,43
Fiabiliste 556,45 2,07 2,00 5,37 15,69 20,93 24,53

Table 10.4. Solutions optimales du treillis avec inclinaison

Figure 10.11. Convergence des indices de fiabilité au cours des itérations


TROISIÈME PARTIE

Ingénierie de la décision
pour la conception

Partie coordonnée par Daniel JOLLY.


CHAPITRE 11

Introduction à l’ingénierie de la décision

11.1. Aide à la décision : quels outils, pour quoi faire ?

De nos jours, tout problème décisionnel complexe fait intervenir le plus


souvent plusieurs points de vue. Dans les entreprises notamment, les
décisions stratégiques d’orientation, comme le choix entre plusieurs projets
de programmation pluriannuelle, mettent en jeu un grand nombre de
paramètres. Il s’agit dans ces situations de rechercher les meilleurs
compromis lors de la prise de décision. L’aide multicritère à la décision
apporte à la fois une démarche et des outils afin de proposer des solutions à
ces problèmes décisionnels complexes en préparant et en cadrant les
dernières étapes de la prise de décision. Les chapitres suivants traitent
différentes méthodes qui tendent à répondre à de telles problématiques en
adoptant dès que possible des exemples des domaines du génie industriel et
de l’ingénierie de la conception.

11.2. Les méthodes d’instruction de la décision

C’est toujours, en « jugeant » les différents compromis possibles, à la


lumière des apports et des risques, que le décideur effectue ses arbitrages.

Chapitre rédigé par Daniel JOLLY, Jean RENAUD et Bernard YANNOU.


196 La conception industrielle de produits 3

Dans le monde industriel, le profit, ou le rendement peut apparaître


comme le critère prépondérant de toute décision. En réalité, il s'agit souvent
d'un problème complexe et le décideur doit intégrer un ensemble de critères
qu’il voudrait optimiser de façon concomitante. Paradoxalement, dès que le
problème de décision est multicritère, il n’y a plus de solution parfaite
possible ! En effet, aucune solution particulière ne peut maximiser tous les
critères simultanément, en raison de leur caractère le plus souvent
contradictoire. Il faut alors envisager des décisions de meilleurs compromis
parce que, pour chaque cas particulier, il y a de bonnes et de mauvaises
solutions. L’objet de l’analyse multicritère est d'alimenter la réflexion du
décideur dans sa recherche des meilleurs compromis. Ainsi l’aide à la
décision multicritère fournit-elle des outils permettant au décideur de
progresser dans sa réflexion.

Le décideur étant « humain », ses choix vont dépendre de ses préférences.


L'aide va donc consister à modéliser ses choix ou ses préférences et à bâtir
un « algorithme » qui reproduira son processus de décision.

11.3. Les fondements théoriques du multicritère

Pour instruire les choix ou les préférences multicritères du décideur, deux


approches de résolution de ce type de problème ont émergé :
– la première, par agrégation totale, caractérisée par la « théorie de
l’utilité multi-attribut ou du critère unique de synthèse » qui évacue toute
incomparabilité ;
– la seconde, par agrégation partielle, s’appuyant sur la relation de
« surclassement » qui accepte l’incomparabilité.

Dans les deux cas l’existence de propositions équivalentes est possible


suivant la structure de préférence adoptée.

L'approche fondée sur la théorie de l'utilité multi-attributs, d’inspiration


américaine, consiste à agréger différents points de vue en une fonction
unique, appelée fonction d’utilité. Le principe consiste à optimiser cette
fonction qui est estimée sur la base de l’exploitation d’un questionnaire
proposé au décideur. Les méthodes comme la moyenne ou le produit
pondéré appartiennent à cette famille. Les comparaisons par paires,
notamment la méthode AHP (Analytic Hierarchical Process) qui est basée
sur un principe d'évaluation par paire d'alternatives, selon une échelle de
Introduction à l’ingénierie de la décision 197

mesure de 1 à 9, appartiennent également à cette même catégorie de


méthodes.

Des méthodes relevant de la logique floue se développent également


comme la moyenne pondérée ordonnée, OWA (Ordered Weighted
Averaging) proposées par R. R. Yager. Dans cette approche, seul l’ordre des
poids est retenu et non l’affectation des poids aux critères. Des
quantificateurs linguistiques sont aussi utilisés pour proposer un ensemble de
meilleurs compromis au décideur. Choquet et Sugeno ont développé des
intégrales floues dans le même principe que les opérateurs OWA. Le lecteur
trouvera une présentation des approches d’agrégation complète et plus
particulièrement de la méthode OWA dans le chapitre 12.

Les approches d’agrégation partielle fondées sur le surclassement,


d’inspiration européenne, ont pour objectif de comparer des actions ou
alternatives afin de construire et d’exploiter une relation de surclassement
qui représente les préférences du décideur à partir de l’information dont il
dispose. Les outils les plus connus sont ELECTRE et PROMETHEE.

Les méthodes ELECTRE consistent à comparer deux à deux les actions


possibles selon les critères retenus, affectés d'un poids et d'un ou de plusieurs
seuils (indifférence, veto, préférence, etc.). Elles permettent de répondre,
selon les versions, à une problématique de choix, de classement ou de tri de
ces actions. La méthode PROMETHEE, qui se décline en deux versions
acceptant ou non l’incomparabilité, complète les méthodes ELECTRE. La
notion de poids des critères et de seuils (préférence forte, faible ou stricte,
indifférence ou de veto) est plus ou moins largement prise en compte selon
les outils utilisés. Dans le chapitre 13, le lecteur trouvera une présentation
des méthodes d’agrégation partielles, notamment les méthodes Electre et
Prométhée. Complétant les méthodes précédentes, le lecteur trouvera ensuite
dans le chapitre 14 une utilisation des méthodes de comparaison par paires
pour l’aide à la spécification de produit et le choix du concept adéquat. Cette
méthode simplifie la mise en œuvre du processus de décision en permettant
aux décideurs de se concentrer sur chaque paire de solutions possibles par
critère plutôt que d’être immédiatement confrontés à une approche globale
multicritère.

Le chapitre 15 est consacré à une présentation de la théorie de l’option


réelle appliquée à la conception. Cette théorie est issue de celle des options
financières dont la spécificité par rapport à d’autres techniques d’évaluation
198 La conception industrielle de produits 3

de projets est de prendre en compte la flexibilité de décision des managers.


L’idée sous-jacente s’appuie sur le fait que la réalisation de projets crée non
seulement directement des richesses mais aussi des opportunités
d’investissements qu’il convient de considérer dans le calcul de la valeur.
Une option réelle est un droit et non une obligation d’entreprendre une
action dans le futur. C’est donc un outil d’aide à la décision stratégique qui
permet d’introduire des flexibilités dans la prise de décision d’un projet
industriel ou le choix d’une technologie comme il est développé dans ce
chapitre.

La méthode des Rough Sets, ou des ensembles approximatifs, développée


par Z. Pawlak, est également utilisée dans le cadre de l’analyse multicritère.
Bien que moins connue et donc moins appliquée, cette approche permet de
traiter des données qualitatives et/ou quantitative, mais aussi des données
incomplètes et inconsistantes. Son principe consiste à extraire un échantillon
d’actions ou d’alternatives et de les faire classer par un expert. Ce
classement constitue une « mesure » des préférences que l’on va convertir en
règles de préférence et de non préférences sous forme de code binaire. Ce
profil décisionnel est alors appliqué à l’ensemble des actions de la
population afin de définir des zones de préférences grâce à un calcul de
score. Ainsi le décideur peut faire son choix final et définir ce qu’il est
préférable de faire. Le chapitre 16 présente une application de la théorie des
ensembles approximatifs dans le cadre de la prise de décision.

Pour terminer cette partie consacrée à l’analyse multicritère, une


présentation d’une technique originale, issue de l’analyse marketing, est
développée dans le chapitre 17. Il s’agit d’une méthode d’analyse des
mesures conjointes qui permet d’identifier la valeur de différentes options en
s’appuyant sur les préférences du ou des décideurs. Le comportement d’un
consommateur vis-à-vis d’un produit par exemple résulte d'opérations
complexes mettant en jeu sa perception du produit et ses préférences. Pour
réussir la conception d'un produit, il faut donc évaluer les préférences et
modéliser les appréciations faites par cet individu. L'analyse des mesures
conjointes résout ce type de problèmes en faisant appel à des plans
d'expérience et aux méthodes d'estimation statistique.
Introduction à l’ingénierie de la décision 199

11.3.1. La robustesse multicritère

Quel que soit le modèle, la méthode ou l’outil préconisé, le choix du


décideur, la modélisation des préférences, il est souhaitable, voire
primordial, de s'assurer de la stabilité des solutions retenues en fonction des
fluctuations extérieures et/ou des variations des paramètres intervenants dans
les processus de décision mis en œuvre. Il s’agit là d’une notion de
robustesse de la décision ou du processus de décision qui peut se décliner en
deux types de robustesse : la robustesse décisionnelle et la robustesse
procédurale.

11.3.2. La robustesse décisionnelle

Elle est fonction des changements d’orientation ou de préférences du


décideur, généralement dus à des modifications contextuelles (technico-
économiques, sociales, politiques, etc.). Si un décideur remplace un autre,
quels sont les invariants ? Cette robustesse va prendre en compte le
comportement du décideur et son mode de raisonnement, dans un contexte
évolutif donné.

11.3.3. La robustesse procédurale

Elle est fonction des méthodes de classement ou des outils utilisés (rough
sets, bilan des flux ou autres méthodes). Il s’agit d’évaluer la robustesse par
rapport au modèle choisi, aux grandeurs mesurées ou modélisées. Elle
dépend du mode de calcul. La robustesse devra être abordée par
comparaison des résultats obtenus avec différents outils disponibles.

Dans tous les cas, il s’agit d’évaluer le risque de passer d’un ensemble de
solutions « optimales » à un autre correspondant à un mode dégradé. Ce type
de robustesse peut être représenté par une distance entre les solutions
dégradées de la décision et la frontière des zones de faisabilité (de Pareto par
exemple), des compromis ou des préférences. Il s’agit d’estimer, d’évaluer
ou de mesurer une probabilité, une possibilité de dépassement de cette
décision par rapport au bord de la zone optimale. Cette probabilité de
dépassement pourra, dans certains cas, être considérée comme un nouveau
critère à prendre en compte dans l’évaluation d’une note globale.
200 La conception industrielle de produits 3

11.4. Le cas d’un processus de décision multi-décideurs

Des liens forts existent entre l’aide multicritère à la décision et d’autres


domaines de recherche tels que la théorie du choix social, les procédures de
vote, les théories des ensembles flous, la négociation et les systèmes experts.

L’approche multi-décideur intéresse également les experts du


multicritère, surtout lorsque les préférences des décideurs sont
contradictoires. Plusieurs méthodes, comme les abaques colorés, sont des
outils qui permettent de dégager des consensus entre les décideurs. Ils
permettent l’animation de groupe impliquant une appréciation, qualitative,
intuitive et globale. Les abaques se pratiquent selon trois phases : le vote, le
tri des votes et le débat. Ce dernier intervient à partir des résultats des votes
obtenus, présentés sous forme de grilles colorées. N’oublions pas que la
moyenne des résultats obtenue dans le cadre des méthodes d’agrégation n’a
pas de sens. Le calcul d’une moyenne dans le cas d’un vote multi-décideur
ne peut donc satisfaire personne et a donc peu de chance de correspondre à
un compromis accepté par tous. En réalité, trois cas de figure se présentent :
– les méthodes de classification font apparaître des groupes
comportementaux distincts et on indique leur solution préférée ;
– on demande à tous de se mettre d’accord sur les parties du modèle de
préférence, ce qui revient à se mettre d’accord sur un seul modèle et donc de
traiter le problème multicritère d’une manière mono-critère ;
– on modélise les préférences de chaque décideur et on essaie de faire
émerger la meilleure décision. Dans ce cas, la mesure de synergie du groupe
et les mesures de cohérence propre à chaque décideur sont intéressantes pour
proposer des leviers d’amélioration de la qualité de la décision.

11.5. Conclusion

L’aide multicritère à la décision ne porte pas uniquement sur le choix d'une


famille d’outils ou de techniques d’agrégation des préférences. Le choix du ou
des experts, le recueil des informations ou connaissances en rapport avec les
solutions à évaluer, la modélisation des préférences de l’expert, la proposition
des alternatives des meilleurs compromis et l’évaluation des solutions
proposées sont des étapes indispensables et délicates.

De nombreux logiciels sont commercialisés aujourd’hui, il est donc


difficile d’en présenter une liste exhaustive, cependant on peut citer les plus
Introduction à l’ingénierie de la décision 201

courants comme Descriptor de Adexys21, PROMCALC (PROMETHEE


CALCULATIONS) et DECISION LAB 200022 pour la méthode Prométhée,
développés par Center for Statistics and Operations Research, EXPERT
CHOICE23, commercialisé par Decision Support Software, basé sur la
méthode AHP (Analytic Hierarchy Process), DECISION PAD par Apian
Software, MICROQUALIFLEX, M-MACBETH24, le logiciel
25
PRIORIZER implémente la méthode de comparaison par paire, etc. Les
lecteurs qui s’intéressent aux logiciels libres pourront trouver dans le projet
DECISION DECK26 matière à participer au développement ou dans le cadre
d’une utilisation personnelle à la mise au point et à l’évolution d’un logiciel
d’aide multicritère à la décision.

Au-delà de la dimension « boîte à outils », l’aspect opérationnel suppose


que les responsables qui ont à utiliser ces outils soient formés et qu’un
meneur de jeu – qu’on peut qualifier de « facilitateur » ou « animateur » –
assure non seulement le soutien méthodologique, mais veille aussi à la
coordination des travaux et s’assure de la cohérence des sources
d’informations, ceci bien sûr sans interférer sur la perception et
l’interprétation des experts en charge de l’instruction. Ceci contribue à ce
que les points de vue, classements et autres évaluations qui sont pris en
compte pour les décisions finales soient les plus robustes possibles.

Dans les synthèses ou consolidations de points de vue, le facilitateur doit


veiller à la réalité des perceptions, au-delà de la simple dimension
arithmétique des cotations. Si besoin est, il devra rappeler les domaines de
compétences des évaluateurs afin de mieux positionner les points de vue
affichés.

Les chapitres suivants présentent les méthodes d’aide multicritère à la


décision les plus connues comme il a été précisé dans les paragraphes
précédents. Une large bibliographie située à la fin de cette partie de
l’ouvrage permettra au lecteur d’approfondir ses connaissances dans ce
domaine.

21. http://www.adexys.com/
22. http://www.visualdecision.com/dlab_f.htm
23. http://www.expertchoice.com/
24. http://www.m-macbeth.com/fr/index.html
25. http://www.priorizer.com/
2
26. Projet Decision Deck D : http://decision-deck.sourceforge.net/index.html
CHAPITRE 12

L’agrégation complète – les OWA

Dans cette approche d’inspiration américaine appelée aussi « agréger puis


comparer », les performances et donc les préférences locales à chaque
attribut sont agrégées en une fonction unique qu’il s’agit d’optimiser. Le rôle
du scientifique est d’essayer d’estimer cette fonction !

Cela suppose donc que tous les jugements sont commensurables ce qui
n’est pas souvent le cas pour des décisions prises dans le cadre du processus
de conception, mais comme ce sont parfois les seules méthodes utilisables, il
importe de distinguer leurs caractéristiques.

On obtient un classement complet des actions. La compensation est


totale, tous les critères étant pris en compte dans les méthodes présentées ici.

12.1. MAUT (MultiAttribute Utility Theory)

C’est une méthode développée vers la fin des années soixante par Keeney
et Raiffa [KEE 76].

Elle a été utilisée dans les problèmes d’aide à la décision et dans les
problèmes d’économie ou d’actuariat.

Chapitre rédigé par Anne-Marie JOLLY-DESODT, Jean RENAUD et Mauricio CAMARGO.


204 La conception industrielle de produits 3

Le décideur associe une utilité à chacune des actions possibles en


considérant séparément chacun des critères et en observant quelle utilité
dégage chaque critère pour l’action considérée.

L’utilité VA(x1, x2,…xn) associée à l’action A évaluée sur les critères 1,…n
est :

VA(x1, x2, …xn) =V de i=1 à n vi(xi) (12.1)

Ici, vi(xi) est l’utilité marginale générée au vu du critère i si l’action A a la


performance xi.

Il faut que les critères soient indépendants et que les fonctions d’utilité
soient commensurables27.

Les méthodes directes de construction de V consistent à estimer les


fonctions vi, il existe une méthode UTA28 [JAC 82] qui permet de construire
V indirectement à partir de jugements globaux émis par le décideur. Le
logiciel PREFCALC29 est dérivé de cette méthode. La méthode UTA plus30
est également implémentée dans un logiciel : cette méthode, utilisée pour
résoudre les problèmes de choix ou de classement, construit une fonction
d’utilité à partir d’un classement avec ex aequo éventuels défini par
l’utilisateur sur un sous-ensemble d’actions de référence. La méthode
consiste d’abord à déterminer une fonction d’utilité optimale par la
programmation linéaire et ensuite à fournir une analyse de sensibilité. Cette
méthode peut également permettre de prendre des décisions sur des données
incertaines en intégrant l’incertitude des décideurs par des probabilités dans
la fonction d’utilité.

Le concept d’utilité évite de pondérer les critères mais ils doivent tous
être évalués sur une même échelle par exemple de 0 à 10. L’utilité

27. Une fonction d’utilité doit pouvoir être comparée à une autre par l’emploi d’une unité de
mesure commune.
28. UTA : Utility Theory Additive (théorie de l’utilité additive).
29. PREFCALC est une implémentation de la méthode UTA.
30. La méthode UTA a donné naissance à plusieurs logiciels dont UTA+ programmé à
l'Université de technologie à Poznan. On peut trouver sur le site du Lamsade – Paris Dauphine
une version de démonstration de ce logiciel : http://l1.lamsade.dauphine.fr/logiciel.html.
L’agrégation complète – les OWA 205

multiattribut a été utilisée dans différents problèmes de conception liés à


l’environnement [SEP 02].

12.2. Somme pondérée

On note les différentes actions relativement à tous les critères. Le


décideur décide également de la pondération. Cette méthode présente une
forte sensibilité aux changements d’échelle. On pourrait aussi utiliser les
produits pondérés, avec multiplication de ratios et de poids en exposant qui
permet de s’affranchir du problème des changements d’échelle.

12.3. SMART

La méthode SMART pour Simple MultiAttribute Rating Technique31 a


été créée en 1977 dans un cadre de prises de décisions sociales. Cette
méthode convertit toutes les échelles de critère en une échelle commune
interne grâce à une fonction qui peut être linéaire ou non.

L’avantage de SMART est de définir un modèle indépendant des


alternatives.

12.4. Méthode MACBETH

La méthode MACBETH pour Measuring Attractiveness by a Categorical


Based Evaluation TecHnique32, élaborée en 1997, est une approche itérative
de questionnement du décideur ayant pour but de qualifier l’attractivité
relative de chaque action par rapport à une autre. Elle ne requiert qu’un
jugement qualitatif des préférences ce qui lui permet de s’affranchir des
critiques concernant leur notation et leur référence La première étape est de
rentrer tous les critères et les actions devant entrer en compte dans le
processus de décision. On définit ensuite deux seuils pour chacun des
critères l’un correspondant au niveau « bon » et l’autre au niveau « neutre ».
Pour chacun des critères le décideur range par ordre de préférence et vis-à-
vis de ces seuils l’ensemble des actions. Pour chacun des critères le décideur
évalue la différence d’attractivité entre deux actions sur une échelle de six

31. Technique de notation multi-attribut simple.


32. Mesure de l’attractivité par une technique d’évaluation basée sur la catégorisation.
206 La conception industrielle de produits 3

niveaux. Le système est basé sur un programme vérifiant la consistance des


données fournies et créant une échelle de poids. La méthode reprend les
principes de la méthode AHP33 et se fonde sur la théorie du mesurage pour
garantir la cohérence.

Cette méthode a été par exemple utilisée pour choisir un projet parmi un
ensemble de projets, destiné à choisir un plan d’action et des fournisseurs
[VAN 06].

Le logiciel M-Macbeth implémente la méthode34.

12.5. Les opérateurs d’agrégation

Les opérateurs d’agrégation ont pour fonction de combiner ou d’agréger


plusieurs quantités ou notes de différentes manières, on trouve donc : des
opérateurs conjonctifs (c’est le « et » logique, toutes les notes sont
privilégiées), les opérateurs disjonctifs (c’est le « ou » logique, une note est
privilégiée), enfin les opérateurs du type moyenne (compromis entre le «et»
et le « ou », ces opérateurs sont dits « compensatoires », une mauvaise note
est compensée par une bonne note.

Des méthodes relevant de la logique floue se sont également développées


comme la moyenne pondérée ordonnée, issues des opérateurs OWA
(Ordered Weighted Averaging) proposées par R.R Yager [YAG 88]. Dans
ces méthodes seul l’ordre des poids est retenu et non la réelle quantification
des poids pour les critères. L’agrégation intervient dans tout processus de
décision multicritère ou multi-objectifs, et donc également en évaluation
subjective. En effet, dans le processus de décision humaine l’opérateur
effectue implicitement une synthèse des appréciations selon l’ensemble de
ses critères de jugement subjectif. La logique floue contribue largement à
fournir un nombre important d’opérateurs d’agrégation. La famille des
intégrales floues fait partie de ces opérateurs.

33. AHP : Analytic Hierarchical Process (processus d’analyse hiérarchique).


34. Le logiciel M-Macbeth est accessible sur le site http://www.m-macbeth.com/fr/index.html.
L’agrégation complète – les OWA 207

12.5.1. Différents types d’opérateurs d’agrégation

Rappels

12.5.1.1. Opérateurs minimum et maximum


L’opérateur35 minimum correspond à des opérateurs conjonctifs qui
combinent les quantités (score ou « notes ») par un « et » logique. Pour
obtenir un résultat élevé (proche de 1), il faut que toutes les notes soient
élevées. L’opérateur maximum est un opérateur disjonctif qui combine les
notes par un « ou » logique. Une seule note élevée suffit pour que le résultat
soit élevé. Les normes36 ou co-normes triangulaires généralisent le « min »
(resp. max). Entre les opérateurs disjonctifs et conjonctifs se situent les
opérateurs de compromis comme la somme pondérée, les minimum et
maximum pondérés, la somme pondérée ordonnée.

12.5.1.2. Somme pondérée et moyennes généralisées


La somme pondérée ou moyenne arithmétique pondérée est définie par
ψ(a1,…, an) = Σ wi.ai (de i = 1 à n), où les wi ∈[0,1] sont les poids, tels que
Σwi = 1. D’autres moyennes pondérées ou non comme les moyennes
géométriques, harmoniques, etc. existent. La forme générale de la famille
des moyennes est définie ainsi :
n
Fwi ,..., wn ( a1 ,..., an ) = h −1 (∑ w j h( ai )) (12.2)
i =1

Où h est une fonction continue et strictement croissante. La somme


pondérée est la seule moyenne généralisée qui soit invariante par le
changement d’échelle linéaire. Exemple de moyennes généralisées :

Moyenne géométrique pondérée Moyenne harmonique pondérée

1
Fwi ,L, wn (a1 ,L, an ) = ∏ h( a ) i
wi
Fwi ,L, wn ( a1 , L , an ) =
wi
(12.3)
∑ ( xi )
n
35. Un opérateur d’agrégation ψ est considéré comme une fonction de [0, 1] dans [0, 1],
c’est-à-dire qui agrège n quantités.
36. Une norme triangulaire (t-norme) ou co-norme triangulaire sont des opérateurs Τ ou ⊥,
respectivement d’intersection ou d’union.
208 La conception industrielle de produits 3

12.5.1.3. Opérateurs minimum et maximum pondérés

Ils ont été introduits par Dubois et Prade [DUB 86 ; DUB 01] dans le
cadre de la théorie des possibilités. Soit w = (w1,…, wn) un vecteur de poids,
où wi ∈[0,1], tel que ∨wi = 1. Ils sont définis par :

w min w1 ,L (a1 ,L , an ) = ∧[(1 - wi ) ∨ ai )] , de i = 1 à n (12.4)

w max w1 ,L ( a1 , L , an ) = ∨[ wi ∧ ai )] , de i = 1 à n (12.5)

Où a∧b, a∨b représentent respectivement min (a,b) et max (a,b).

12.5.2. Les opérateurs OWA

Ces opérateurs peuvent prendre en compte des quantificateurs


linguistiques pour proposer un ensemble de meilleurs compromis au
décideur. Son expression mathématique est telle que :
n

∑ w = 1 ; w ∈ [0,1] où F (a ,L, a )
i
i i 1 n = ∑w b
j =1
j j (12.6)

Où bj est le jième élément le plus important de {a1, …, an}.

Le plus intéressant dans la méthode OWA est que le poids n’est pas
associé directement à un critère particulier mais à une performance
correspond à une position donnée. Exemple pour un vecteur wj = [w1, w2,
w3, w4], si le poids 1 est placé sur la plus faible performance, le score est
minimum ; si le poids 1 est placé sur la performance la plus forte, le score est
maximum (12.7).
n
[0, 0, 0, 1] < ∑ w j b j < [1, 0, 0, 0] (12.7)
j =1

Le principal intérêt en utilisant les opérateurs OWA est de pouvoir


exprimer les vecteurs poids à partir de quantificateurs linguistiques ou
« vagues », comme : « au moins quelques critères doivent être satisfaits »,
L’agrégation complète – les OWA 209

ce qui se modélise de la façon suivante : w [0.30 , 0.30 , 0.25 , 0.15 , 0.0].


Les poids sont répartis uniformément sur l’ensemble des performances.

12.5.2.1. Quantificateurs linguistiques


Les valeurs du vecteur poids ont une forte influence sur le classement des
solutions alternatives dans un ordre de préférence. Une approche pour
générer des valeurs des poids a été proposée par Yager, appelée
quantificateur linguistique (12.8).

wi = Q(i / n) − Q(i − 1/ n) ∀i ≤ n (12.8)

Q(x) est représenté par un « ensemble flou » [0, 1] tel que x ∈ [0,1].

Q(x) indique le degré pour lequel x est satisfait par Q(x) [BEN 05].

Les poids du vecteur Wi peuvent être déterminés par des quantificateurs


linguistiques Q(x) [LEV, 06].

⎧1 si x > b
⎪x−a

Q( x) = ⎨ si a ≤ x ≤ b avec a, b ∈ [0,1]
(12.9)
⎪b − a
⎩⎪0 si x < a

Exemple de vecteur poids w = [0.25 0.75 0 0] (figure 12.1) :

Q(x)

0.25

0.25 0.5 0.75


0 0.2 0.4 0.6 0.8 1
a b

Figure 12.1. Vecteur poids


210 La conception industrielle de produits 3

12.5.2.2. Orness et dispersion


Yager a introduit deux mesures d’évaluation associées au vecteur poids
des opérateurs OWA. La première mesure « Orness » est définie par :
n
Orness (w) = 1 ∑ (n − i) wi (12.10)
n−1 i =1

Elle définit le degré de maximisation du vecteur poids et sa valeur est


comprise entre [0,1]. Il est montré que :

Orness [1 0 … 0]T = 1
Orness [0 0 … 1]T = 0 (12.11)
Orness [1/n 1/n … 1/n]T = 0.5

Ainsi les opérateurs maximum, minimum et moyenne arithmétique


peuvent être vus comme des opérateurs OWA avec des degrés de Orness,
respectivement 1, 0 et 0.5.

Une seconde mesure introduite par Yager est la dispersion ou l’entropie


du vecteur poids. Cette mesure est définie comme suit :
n
Disp ( w) = ∑
i =1
wi ln wi (12.12)

Elle mesure le degré pour lequel le vecteur poids prend en compte toutes
les informations. Cela se traduit par un vecteur poids prenant en compte tous
les critères d’une manière équivalente.

12.6. Opérateurs d’agrégations basés sur l’intégrale floue pour la prise


de décision en conception

Un aspect significatif des problèmes d'agrégation réside dans la prise en


compte de l'importance des attributs ou des critères considérés, lesquels sont
habituellement modélisés par l'utilisation de poids. Comme cela a été évoqué
dans les sections précédentes, les opérateurs d’agrégation les plus utilisés et
connus sont les moyennes pondérées, les opérateurs minimum et maximum,
la médiane ou la moyenne pondérée ordonnée (OWA). Cependant, ces
opérateurs présentent certaines faiblesses car aucun d'entre eux n'est capable
de modéliser une quelconque interaction entre les différents attributs ou
L’agrégation complète – les OWA 211

critères alors que le plus souvent il existe des groupes de critères qui ont un
poids spécifique sur la prise de décision. En effet, il est bien établi en théorie
de l'utilité multi-attribut (MAUT) (section 12.1) que ces opérateurs
d’agrégation considèrent une indépendance mutuelle parmi les critères.
Comme ces opérateurs ne sont pas appropriés en présence de critères
interdépendants, la tendance a été de construire des critères censés être
indépendants, ce qui entraînait souvent des erreurs dans les évaluations.

Dans le but d'obtenir une représentation flexible des phénomènes


complexes d'interaction entre les critères, il est utile de substituer le vecteur
poids (dans le cas additif) par un opérateur sous la forme d’une fonction
d'ensemble non additive, appelée mesure floue. Ce concept a été introduit en
aide à la décision en 1974 par Sugeno [SUG 74] en utilisant le concept de
théorie de capacité introduit par Choquet en 1954 [CHO 54]. Ces mesures
permettent ainsi de définir une importance relative non seulement pour
chaque critère mais aussi pour chaque sous-ensemble de critères.

Une mesure floue (mesure non-additive, capacité) sur X est une


application :

µ : P(X) → [0,1] satisfaisant les axiomes suivants :


µ ( X ) =1 (12.13)
µ (φ )= 0 (12.14)

Ainsi que la propriété de monotonie :

S ⊂ T ⊆ X ⇒ µ (S )≤ µ (T ) (12.15)

Avec µ(S) exprimant l’importance du sous-ensemble des critères S.

Les intégrales floues sont les intégrales d'une fonction par rapport à une
mesure non additive. Elles permettent donc d’intégrer les évaluations
introduites ci-dessus. De cette manière, outre les poids usuels sur les critères
pris individuellement, des poids sur toutes les combinaisons possibles de
critères sont également définis. La différence fondamentale entre les
intégrales de Sugeno et celles de Choquet réside dans le fait que la première
utilise des opérateurs non linéaires (min et max) alors que la seconde utilise
des opérateurs linéaires. Ceci signifie, comme il a été montré par Grabish
212 La conception industrielle de produits 3

[GRA 95], que l’intégrale de Choquet est applicable lors d’une agrégation
cardinale (c’est-à-dire lorsque les chiffres ont une réelle signification) alors
que l’intégrale de Sugeno semble être plus adaptée pour des agrégations
ordinales (lorsque seul l’ordre a une véritable signification).

A titre d’exemple, nous utiliserons ici la famille de l'intégrale de Choquet


qui a la propriété de permettre la représentation de phénomènes d'interaction
mutuelle pouvant exister entre certains critères. Les interactions s'étendent
de la synergie négative (interaction négative) à la synergie positive
(interaction positive).

Pour définir une intégrale de Choquet il nous faut commencer par


prendre un ensemble de critères. Cet ensemble est évalué en utilisant des
fonctions d’utilité définissant ainsi pour un produit P le vecteur
Pu = {u 1 , u 2 , … , u n } . Avec une mesure floue µ définie sur l’ensemble
des critères X, l’intégrale de Choquet est définie de la façon suivante
(12.16) :
n
C µ ( u1 , … , u n ) = ∑ (u σ
i =1
( i ) −u ( σ i −1 ) ) µ ( Aσ i ) (12.16)

Dans lequel σi représente un indice appartenant à 1,…,n. Il s’agit du rang


de ui classé par ordre croissant :

0 = uσ 0 ≤ uσ1 ≤ L ≤ uσ n ≤ 1 avec u σ 1 = M in ( i ) u i
et u σ = M a x ( i ) u i
n
(12.17)

Aσ i représente un ensemble de critères défini par :

{
Aσ i = g σ i , K , g σ n . }
Nous avons constaté pour diverses applications notamment dans le
domaine de la chimie [CAM 06 ; MOR 07a ; MOR 07b] que cette approche
permet de prendre en compte des observations expérimentales bien connues
dans un domaine en particulier, mais aussi le savoir-faire des experts du
produit et de la production afin de déterminer mais aussi d’évaluer les
interactions entre variables.
L’agrégation complète – les OWA 213

Ces approches ont été utilisées depuis des années, pour la prise de
décision en conception, particulièrement M. Grabisch [GRA 96] dresse un
état de l’art des applications pour la conception dans divers domaines
notamment dans la conception d’enceintes pour des chaînes hi-fi, permettant
de mesurer le compromis du choix du consommateur entre critères de
conception et perception esthétique du produit, ou la conception de sièges de
voiture, étude dans laquelle il s’agit de modéliser la sensation subjective
d’inconfort de l’utilisateur [GRA 02].

Une autre approche qui est de plus en plus utilisée consiste à intégrer les
outils d’optimisation multiobjectif et de gestion des connaissances dans les
systèmes d'aide à la décision. En effet, le couplage de ces deux systèmes
permet de s'orienter vers des systèmes explicatifs automatisés. Fournir des
explications sur les choix proposés par un système d'aide à la décision
permet d'accroître la confiance des utilisateurs vis-à-vis de ces approches. Le
lecteur trouvera des résultats récents dans [CAM 06 ; MOR 07a ; MOR 07b].

Ainsi, les opérateurs d’agrégation floue prennent toute leur importance


lorsqu’il s’agit de classer des solutions possibles dans un problème de
conception, de prendre en compte des mesures de satisfaction d’un expert ou
d’un consommateur cible, ou d’identifier l’espace de conception le plus
favorable parmi un ensemble de solutions qui répondent aux critères
d’optimalité. En particulier, comme illustré par l’exemple suivant
(section 12.6.1.), lorsque les critères ont des influences particulières entre
eux et l’étude de ces influences permet de faire un choix parmi un ensemble
de solutions a priori optimales.

12.6.1. Un exemple d’application pour la conception optimale produit-


procédé

Dans l’industrie des polymères, l’ingénieur cherche toujours à obtenir,


avec la productivité la plus élevée et au coût le plus bas, des macromolécules
possédant des caractéristiques adaptées à des propriétés d’usage ciblées. Par
conséquent, l’optimisation des procédés de fabrication revêt un caractère
multicritère qui devra aboutir au meilleur compromis possible. Cet exemple
porte sur l’optimisation de la polymérisation discontinue en émulsion du
styrène et de l’a-méthylstyrène, pour plus de détails voir [MOR 07a]. La
procédure d’optimisation multicritère choisie est basée sur l’utilisation d’un
algorithme évolutionnaire et sur le concept de domination au sens de
214 La conception industrielle de produits 3

Pareto37. Ainsi des solutions potentielles, optimales au sens de Pareto, ont


été générées à partir d’un simulateur. Un système d’aide à la décision,
utilisant l’intégrale de Choquet, a été développé afin de déterminer les
conditions opératoires optimales prenant en compte les préférences d’un
décideur.

La figure 12.2 gauche présente la zone de Pareto (espace des variables).


Celle ci couvre la quasi totalité de l’espace étudié. La figure 12.2 droite
présente le front de Pareto (espace des critères) qui permet de visualiser le
phénomène en représentant une surface dans un espace à trois dimensions.
Nous remarquons qu’il est absolument impossible de maximiser
simultanément les fonctions objectifs F1 (l’intégration de monomère), F3 (le
rendement de la réaction) tout en minimisant F2 (l’écart entre la masse
molaire objectif et celle réelle).

Figure 12.2. Zone (figure de gauche) et front de Pareto (figure de droite) obtenus

La procédure d’optimisation multicritère a été appliquée au système de


copolymérisation par couplage avec le modèle construit. Elle n’a pas permis
de répondre précisément au problème posé étant donné le nombre des
solutions qui conviennent (espace des variables, figure 12.2). La recette
utilisée dans ce système de copolymérisation ne fait varier, plus précisément,
que deux variables : la température (Temp) et la fraction molaire

37. Dans un problème multicritère dans lequel on cherche à optimiser plusieurs objectifs
contradictoires, il s’agit de l’ensemble des points de l’espace de recherche tel qu’il n’existe
aucun point qui est strictement meilleur qu’eux sur tous les critères simultanément.
L’agrégation complète – les OWA 215

de l’α-méthylstyrène (Wams). Cependant, si la première phase de l’analyse


multicritère donne un résultat trop large, l’utilisation d’un système d’aide à
la décision permettra de dégager des recommandations.

Le paragraphe précédent a souligné que l’optimisation simultanée de


plusieurs critères amenait à considérer plusieurs solutions et à envisager une
zone de compromis. Pour l’instant, aucune préférence vis-à-vis de ces
solutions n’a été envisagée. Cependant, il semble préférable, comme lors de
toute procédure d’optimisation, de formuler un choix final permettant
d’isoler une meilleure solution. Pour cela, nous proposons d’utiliser un
système d’aide à la décision basé sur l’intégrale de Choquet. Une fois les
mesures floues d’interactions établies, nous pouvons calculer un index
d’évaluation globale (GEI) à l’aide de cette intégrale. Ce dernier est calculé
en trois étapes : récolte de données, intégration des préférences et des
interactions fournies par des utilisateurs et calcul final de l’index.

L’ensemble des critères X = {g1 , g 2 ,K, g n } est évalué en utilisant des


fonctions d’utilité. Ainsi, le vecteur pour un produit P est
Pu = {u 1 , u 2 , … , u n } . Avec une mesure floue µ définie sur l’ensemble
des critères X, l’index GEI se calcule en utilisant la définition de l’intégrale
de Choquet rappelée dans (12.16), ainsi :
n
GEI = ∑ (u σ
i =1
( i ) −u ( σ i −1 ) ) µ ( Aσ i ) (12.18)

Cette approche permet de prendre en compte des observations


expérimentales et le savoir-faire des experts du produit et de la production
afin de déterminer mais aussi d’évaluer les interactions entre variables. Un
classement des conditions opératoires grâce à l’utilisation de l’index
d’évaluation globale, permet d’identifier les zones les plus intéressantes de la
zone de Pareto (figure 12.3). De plus, l’obtention d’un classement fiable
permet par la suite de mieux intégrer les préférences du consommateur, mais
aussi de déterminer des conditions opératoires optimales et des nouveaux
espaces de conception.
216 La conception industrielle de produits 3

4
5 4
3
2
3 1

1 1

2
1

Figure 12.3. Meilleure solution (∆) et classement par quintiles


de la zone de Pareto et du front de Pareto

Dans la figure 12.3, la zone notée (1) correspond aux 20 % meilleures


solutions, celles notées (2) aux 20 % suivantes et celles notées (5) aux 20 %
plus mauvaises. Les solutions préférées, et en particulier la meilleure, sont
obtenues pour des valeurs relativement faibles de température et de fraction
massique initiale en α-méthylstyrène. Cependant nous pouvons constater
que les 20 % meilleures se partagent en deux zones. L’objectif de
valorisation de l’α-méthylstyrène avec un taux de conversion suffisant peut
conduire le décideur à choisir une température plus élevée afin d’obtenir un
taux d’incorporation de l’α-méthylstyrène voisin de 30 %, même au prix
d’une chute de la masse molaire.

Nous avons montré que la seule optimisation multicritère au sens de


Pareto, n’était pas suffisante pour choisir les conditions opératoires
optimales. L’élaboration d’un système d’aide à la décision basé sur les
mesures floues, en particulier l’intégrale de Choquet nous a permis d’isoler
la meilleure solution, qui prend en compte les préférences du décideur. Ce
point constitue la valeur ajoutée principale de nos travaux car elle peut
conduire l’industriel à une modification de la perception du problème et
donc de ses préférences. En conclusion, le génie décisionnel a permis
d’apporter une information supplémentaire et plus approfondie dans
l’optimisation multicritère de procédés.

Le gain de précision dans l’analyse et la richesse des intégrales floues ont


tout de même un inconvénient liée à la complexité de mise en œuvre. En
effet, lorsqu’il s’agit d’un problème comprenant un nombre important de
L’agrégation complète – les OWA 217

critères, le problème d’identification des ensembles de tous les poids


possibles se pose.

L’étude et l’application des méthodes d’analyse multicritère utilisant les


opérateurs d’agrégation floue trouvent leur intérêt aujourd’hui, puisque la
prise de décision en conception devient de plus en plus intégrée à la
dynamique et aux contraintes de l’ensemble de l’organisation. Ainsi
l’application d’une méthode d’aide à la décision doit prendre en compte
entre autres :
– les divers niveaux d’analyse auxquels est soumis un objet de
conception nouveau avant sa phase d’industrialisation (stratégique, tactique
et opérationnel). Les actions ou les mesures résultantes sont élaborées à
travers un processus long et complexe mobilisant de nombreux acteurs. En
conception il n’y a pas, une décision, un décideur, mais une série de
stratégies et de compromis entre divers points de vue ou entre des groupes
qui ne partagent pas la même solution ;
– souvent, étant donnée la complexité du processus, la décision prise ne
répond pas à l’optimalité, au sens mathématique du terme, mais plutôt à une
solution « satisfaisante » [GRA 96] qui prend en compte un maximum
d’informations (critères) qui rapprochent le problème de la réalité ;
– l’étape d’agrégation fait partie de tout processus de décision
multicritère dans lequelle l’évaluation est effectuée selon plusieurs critères et
par plusieurs experts, notamment en évaluation subjective [GRA 96].
CHAPITRE 13

Les méthodes de surclassement


L’école française : les « Electre » et l’école
belge : Prométhée Gaia, Qualiflex, Oreste

13.1. La notion de surclassement

On se retrouve souvent, lorsque l’on a à effectuer un choix dépendant


de critères multiples dans un processus de conception, dans des situations
d’ « incomparabilité » ou d’ « intransitivité ».

L’incomparabilité intervient pour un décideur humain lorsqu’il se


retrouve face à des alternatives sans qu’il puisse dire laquelle il préfère,
cela dépend du point de vue qu’il considère. Cette situation peut
d’ailleurs être due à l’imperfection des données dont il dispose pour juger
de la situation.

Par ailleurs, l’indifférence et la préférence entre deux situations ne


sont pas forcément transitives. A savoir par exemple qu’on peut aimer
autant deux produits a et b qui diffèrent par une certaine quantité d’un
ingrédient et aimer autant les produits b et c qui diffèrent de la même
façon, cela ne veut pas dire que l’on aime autant a et c. En fait cette
indifférence cache une situation de préférence faible, insuffisante

Chapitre rédigé par Anne-Marie JOLLY-DESODT et Bernard YANNOU.


220 La conception industrielle de produits 3

pour être ressentie et exprimée. La préférence peut elle aussi être non
transitive !

C’est pourquoi les méthodes d’optimisation font parfois faillite dans


certains choix de conception parce qu’elles reposent sur ces hypothèses
mathématiques contraignantes qui ne correspondent pas à la réalité de la
situation : on ne peut arriver à un critère unique de synthèse pour en juger
[GUI 98], [BEN 00], [MAN 97].

Les écoles françaises et belges ont introduit la notion d’agrégation


partielle où l’on se contente d’apprécier partiellement les conséquences
des différents jugements ; cette approche est parfois appelée approche du
surclassement de synthèse acceptant l’incomparabilité. Dans cette
approche on construit des relations de surclassement pour représenter les
préférences du décideur compte tenu de l’information disponible. Avant
de construire ces relations de surclassement, on introduit des seuils de
discrimination sur la préférence et l’indifférence et parfois même des
seuils de veto pour chacun des critères, cela modélise localement les
préférences du décideur.

Dans l’approche dite de surclassement, on compare les actions deux à


deux pour vérifier si l’une des actions surclasse l’autre, à partir de ces
comparaisons on réalise une synthèse.

Les méthodes se distinguent par la manière d’effectuer ces deux


étapes. En principe, une action a surclasse une action b si a est au moins
aussi bonne que b sur une majorité de critères (condition de concordance)
sans être nettement plus mauvaise relativement aux autres critères
(condition de non-discordance).

De plus les méthodes de surclassement acceptent des critères à


caractère qualitatif et incommensurable.

On distingue généralement un indice de concordance ci (a, b) local au


critère i ou global c (a, b), de même pour l’indice de concordance.

Selon les méthodes utilisées, l’indice de concordance peut être binaire


ou linéaire par morceaux.

Une fois tous les indices locaux calculés, la moyenne pondérée de ces
indices par le poids des critères donne l’indice de concordance global.
Les méthodes de surclassement 221

Selon la méthode utilisée, les indices de discordance peuvent prendre


diverses formes :
– mesure de la plus grande différence discordante de performances pour
chaque couple d’action (Electre1) ;
– utilisation d’un seuil de veto net : un critère gj peut donner son veto au
fait que l’action a surclasse l’action b si gj(a) est très inférieur à gj(b) ;
– utilisation d’un seuil de veto flou : si la différence de performances
reste inférieure au seuil de veto mais que l’on a pas b préféré faiblement à a,
on effectue une interpolation.

Figure 13.1. Intensité avec laquelle une action en surclasse une autre

Indices de concordance et de discordance peuvent éventuellement mener


au calcul d’un indice de crédibilité, mesurant l’intensité avec laquelle une
action en surclasse une autre (figure 13.1).

13.2. Les méthodes Electre

Leur choix dépendent de la problématique de décision retenue : choix, tri


ou classement.

13.2.1. Méthodes Electre correspondant à une problématique de choix

C’est-à-dire de détermination parmi toutes les actions d’un sous-


ensemble d’actions les plus adéquates.
222 La conception industrielle de produits 3

13.2.1.1. Electre 1
Cette méthode a été conçue par Roy en 1968 [ROY 68], c’est la méthode
la plus basique de surclassement.

On considère que chaque critère est un critère vrai (seuil de préférence et


d’indifférence nuls), la concordance et la discordance locale sont des valeurs
binaires.

Electre 1 impose de retraduire les performances en notes variant sur des


échelles dont la longueur est proportionnelle au poids des critères.

L’indice de discordance est obtenu en mesurant, sur l’ensemble des


critères, pour chaque couple d’actions, la plus grande différence discordante
divisée par la plus grande longueur d’échelle, l’indice de discordance est
donc compris entre 0 et 1.

On définit un seuil de concordance et de discordance, il est à noter que


souvent, pendant l’utilisation de la méthode on fera varier ces seuils pour
étudier leur effet sur le résultat final : les seuils permettent de réaliser des
tests de concordance et de discordance : le seuil de concordance est la valeur
minimale à dépasser pour que le surclassement soit possible, le seuil de
discordance est la valeur maximale à ne pas dépasser pour que, si le seuil de
concordance est atteint, on puisse dire que l’action a surclasse l’action b.

On obtient alors un graphe de surclassement, les actions en sont les


sommets et si une action a surclasse une action b, alors une flèche part de a
et aboutit à b (figure 13.2).
b

Figure 13.2. Graphe de surclassement élémentaire, ici a surclasse b


mais c n’est surclassé ni par a ni par b

Le noyau est l’ensemble des actions auxquelles n’aboutit aucune flèche


du noyau lui-même. Ce noyau renferme des actions les plus difficiles à
comparer entre elles et parmi lesquelles se trouve la meilleure.
Les méthodes de surclassement 223

Toute action qui n’est pas dans le noyau est surclassée par au moins une
action du noyau. Les actions du noyau sont incomparables entre elles.
C’est cette partie de la méthode qui est la plus délicate ! En général, on
fait varier les seuils de concordance et de discordance pour voir comment
varie le noyau ! Plus les seuils sont contraignants, moins le graphe sera
fourni en arcs et plus le noyau sera grand. En fait, les logiciels existant
n’implantent pas cette méthode mais ses dérivées.

13.2.1.2. Electre 1v
Dans cette méthode on utilise les vraies valeurs des performances, sans
les traduire au préalable en notes avec échelles variables.
On utilise un critère vrai muni d’un seuil de veto net. Il faut choisir un
seuil de veto pour chaque critère et préciser s’il faut minimiser ou maximiser
les critères.

Pour chaque hypothèse de surclassement, on calcule l’indice de concordance


et on arrête le processus si l’on tombe sur une différence de performances qui
déclenche le veto. Dans ce cas, l’indice de concordance est nul.

Dans cette méthode, il n’y a pas de seuil de discordance, son action est
remplacée par celle du seuil de veto.

13.2.1.3. Electre Is
L’indice de concordance s’applique à un critère à seuil, d’où la nécessité
de définition d’un seuil de préférence et d’indifférence pour chaque critère
Le calcul de l’indice de concordance sera explicité dans Electre 3 [ROY 84].

Comme dans Electre 4, la présence d’un veto net supprime la notion de


discordance.

13.2.2. Méthode Electre correspondant à une problématique de rangement

On cherche à regrouper les actions en classes d’équivalence (groupes de


presque ex aequo), sans classes prédéfinies à l’avance. Pour ce faire, on
classe les actions de la meilleure à la pire.

13.2.2.1. Electre 2
Cette méthode a été élaborée à partir d’un cas concret concernant le choix
de support de presse [ROY 71]. L’ensemble des actions est de l’ordre de 30,
224 La conception industrielle de produits 3

l’ensemble des critères de l’ordre de 15. Ces critères sont continus (coûts,
fiabilité de l’information sur laquelle on travaille, affinité de la cible avec le
support) ou discrets (adéquation du support avec le message). On veut
construire un pré ordre qui correspond à l’intérêt qu’il y a pour l’annonceur à
dépenser un franc de publicité dans les différents supports. La méthode
Electre 1 ne convenait pas car le pré ordre obtenu correspond à plus de deux
classes. On considère des vrais critères munis de vetos nets.

Le calcul des indices de concordance est le même que celui d’Electre 4. Il


est effectué avec les seuils de veto laxistes et avec les seuils de veto forts. On
cherche à obtenir deux pré ordres au cas ou la synthèse de l’information
serait impossible à cause de trop nombreuses incomparabilités.

Grâce à trois seuils de concordance (valables pour tous les critères) et


deux seuils de veto (spécifiques à chaque critère) on peut définir des
surclassements forts et faibles. On introduit la condition supplémentaire : la
somme des poids des critères en accord strict avec l’une des hypothèses de
surclassement doit être supérieure ou égale à la somme des poids des critères
en désaccord strict avec cette même hypothèse. On déduit ensuite du graphe
des surclassements forts des classements directs et inverses.

13.2.2.2. Electre 3
Cette méthode est parfois appelée Electre floue, car le surclassement est
établi à partir d’un indice de crédibilité calculé à partir d’un indice de
concordance flou et d’un veto flou [ROY 78].

L’indice de concordance est donc plus complexe, cela correspond à un


pseudo critère (figure 13.3).

Figure 13.3. Indice de concordance flou


Les méthodes de surclassement 225

Si b est faiblement supérieure à a (différence de performance comprise


entre p et q, b est faiblement préférée à a, a ne surclassant pas vraiment b on
prend un indice de concordance compris entre 0 et 1 calculé par interpolation
(figure 13.3). C’est une façon de tenir compte de l’imprécision des données.

On a alors : cj(a, b) = (p-d)/(p-q) Où : d = gj(a)-gj(b)

Pour l’indice de discordance on a le même type de calcul (il s’agit d’un


pseudo critère à seuil de veto flou (figure 13.4).

Figure 13.4. Indice de discordance flou

Le graphe de surclassement est complexe puisque entre chaque paire


d’actions (sommets du graphe) se trouve une paire d’arcs de sens opposés,
affectés chacun d’un degré de crédibilité. On effectue alors des distillations
ascendantes et descendantes à partir de seuils de discrimination.

Une distillation descendante permet d’extraire de l’ensemble des actions


un sous-ensemble des meilleures actions potentielles basé sur sa
qualification (différence entre le nombre d’actions auxquelles elle est
préférée et le nombre d’action qui lui sont préférées), sur ce sous-ensemble
on réitère l’opération en diminuant le seuil de discrimination jusqu’à obtenir
un ensemble d’actions incomparables qui est la première classe. On réitère
l’opération pour obtenir les classes suivantes. Personne ne pratique Electre 3
à la main, un logiciel existe !

C’est une méthode très utilisée particulièrement dans un contexte de


conception lié au développement durable lorsqu’il est difficile de donner une
valeur précise à chacun des critères.
226 La conception industrielle de produits 3

Un logiciel d’aide à la conception architecturale [BRE 05] s’appuie sur


cette méthode : les actions potentielles sont l’ensemble des solutions
architecturales possibles. Cinq critères sont considérés :
– la consommation d’énergie du bâtiment,
– le confort thermique des occupants du bâtiment,
– la quantité de lumière naturelle dans les environnements intérieurs,
– le confort visuel des occupants du bâtiment dû aux fenêtres,
– la qualité d’air dans les ambiances,
– les valeurs des critères avaient été obtenues par simulations
numériques.

Une autre application [DAV 96] concerne le rangement de scénarios


d’équipement hydroélectriques ; trois groupes d’acteurs ont contribué à la
mise en œuvre de la méthode : les décideurs responsables d’énoncer les
préférences, les spécialistes qui évaluent chaque scénario par rapport à
chaque critère. Le groupe de travail qui applique la démarche en cordonnant
des réunions entre décideurs et spécialistes.

Six combinaisons d’équipement ont été imaginées, ce sont les six actions,
elles sont caractérisées par trois types d’équipement : les équipements de
base assurant l’équilibre énergétique, les suréquipements destinés à combler
une partie des besoins de pointe et des turbines à gaz pour combler le reste.
La formulation d’une famille de critères s’est échelonnée sur plusieurs jours.
Une journée entière a servi aux décideurs à identifier les 26 conséquences
élémentaires des différentes actions. A partir de ces conséquences, les
spécialistes ont défini 17 critères et l’importance relative de chacun d’eux.

Ces critères concernent des aspects environnementaux, sociétaux et


économiques. Les spécialistes pour chacun des domaines ont ensuite évalué
les 6 actions sur chacun des critères.

13.2.2.3. Electre 4
Cette méthode est intéressante lorsqu’il n’est pas possible d’attribuer des
poids aux critères ce qui fait qu’on ne calcule pas d’indice de concordance.
On imaginera cependant qu’aucun critère n’a à lui seul une importance
supérieure ou égale à celle d’une coalition rassemblant au moins la moitié
des critères.
Les méthodes de surclassement 227

On définit une relation « meilleur que » liée à la différence de


performance entre deux actions. Et l’on assigne à la relation de
surclassement six niveaux possibles de crédibilité liés au nombre de critères
pour lesquels une action est meilleure que l’autre. Ensuite on travaille
comme dans Electre 3.

Cette méthode a servi à effectuer le classement des prolongements de


ligne de métro en région parisienne. Pour juger de la priorité d’un projet six
critères avaient été retenus mais il ne fallait pas porter de jugements de
valeur au sujet de l’importance des critères et l’évaluation selon chaque
critère des divers projets était sujette à une marge d’erreur non négligeable
[ROY 82].

Ces critères sont : population desservie /km de ligne, trafic prévisible


d’entrants aux stations nouvelles, coût par kilomètre de ligne, taux de
rentabilité interne, organisation du réseau de transport en commun, effet
structurant sur l’urbanisme.

Pour les deux derniers critères il n’existait pas de donnée chiffrable, ce


sont donc des avis d’experts qui ont donné le classement des projets.

Compte tenu de l’aspect politique de la décision : aucun des critères ne


doit jouer un rôle prépondérant, chacun est susceptible de modifier l’ordre de
priorité qui sans lui résulterait des cinq autres critères. La conception
d’Electre 4 était donc d’obtenir un Electre 3 sans poids.

13.2.3. Méthodes Electre correspondant à une problématique de tri

On décompose l’ensemble des actions en un certain nombre de classes


définies à l’avance. Le point délicat est le chevauchement des frontières de
ces classes.

13.2.3.1. Trichotomie de Moscarola et Roy


On définit trois classes, correspondant à une manière de faire
classique du jugement humain (bon, douteux, mauvais). On construit un
ensemble de toutes les actions étalon bonnes et un autre de toutes les
actions étalon mauvaises et, en utilisant l’une des méthodes Electre 1, on
compte le nombre de fois où l’action à classer surclasse ou est surclassée
228 La conception industrielle de produits 3

par l’une des actions de l’un de ces deux ensembles. A partir de ces
chiffres on peut obtenir un indice de crédibilité maximal [ROY 77].

La difficulté réside à trouver de « bonnes actions étalon ».

13.2.3.2. Electre TRI


Cette méthode s’applique aux problèmes à plus de trois classes [YU 92].

13.3. Les méthodes Prométhée

Dans les méthodes Prométhée il n’y a pas d’indice de discordance on


utilise la notion de préférence large (figure 13.5). On peut réaliser un
graphe de surclassement comme dans Electre 3 mais, dans ce graphe les
indices de crédibilité sont remplacés par des indices de concordance.

A partir de ce graphe, on calcule pour chaque action sa puissance


(somme des indices des flèches issues de cette action divisée par le
nombre d’action diminué de 1) et sa faiblesse (somme des indices des
flèches arrivant à cette action, divisée par le nombre d’actions diminué
de 1).

Le schéma ci dessous explicite la différence entre Electre et Prométhée


concernant la notion de préférence (figure 13.5).

Electre Prométhée

Figure 13.5. Notion de préférence dans Electre et dans Prométhée


Les méthodes de surclassement 229

Six types de fonction critère sont possibles (figure 13.6).

Figure 13.6. Les critères dans Prométhée

13.3.1. Prométhée 1

Cette méthode établit un classement acceptant l’incomparabilité. On


calcule les flux entrant et sortant à partir de cette préférence.
1 k
π ( a, b ) = ∑ w j Pj ( a, b ) (13.1)
P j =1
Où Pj ( a , b ) est la préférence de l’action a comparée à b pour le critère
w j j, est le poid du critère j et P est la somme des poids des critères
P = ∑ wj .
j
1
φ + (a) = ∑ π ( a, b )
Puissance n − 1 b∈A (13.2)
1
Faiblesse φ − (a ) = ∑ π ( b, a ) (13.3)
n − 1 b∈A
φ (a) = φ + (a) − φ − (a)

aSb si φa+ > φb+ et φa− < φb− ou


si φa+ = φb+ et φa− < φb− ou
si φa+ > φb+ et φa− = φb−

aIb si φa+ = φb+ et φa− = φb−

Sinon a et b sont incomparables.


230 La conception industrielle de produits 3

13.3.2. Prométhée 2

Prométhée 2 établit un classement sans incomparabilité.

Cette méthode calcule la qualification des actions (puissance moins


faiblesse) puis établit un classement sans incomparabilité, selon l’ordre des
qualifications.

aSb si φa > φb (13.4)


aIb si φa = φb

Un logiciel Promcalc donne une représentation graphique dans un plan


appelé GAIA (pour Graphical Analysis for Interactive Assistance).

Ces méthodes comme Electre 3 ont été très utilisées dans des applications
de conception où l’aspect environnemental est important.

On peut citer l’application [GEL 04] au rangement de neuf scénarios


alternatifs pour le coating de téléphones mobiles ou d’accessoires plastique
pour l’industrie automobile réduisant les problèmes environnementaux et
prenant en compte des facteurs techniques économiques et
environnementaux. Le logiciel implémentant Prométhée avait été couplé à
des programmes de simulation permettant d’établir les caractéristiques de
chaque scénario pour chaque critère. Les critères étaient mesurés en des
unités incomparables et étaient partiellement en conflit. Les auteurs avaient
préféré cette méthode à Electre 3 à cause du fait que les seuils d’Electre 3
sont difficiles à expliquer aux décideurs. Une analyse de sensibilité complète
l’étude.

13.3.3. Qualiflex

On part de l’ordre d’importance des critères aux yeux du décideur ! A


partir de cela on obtient un jeu de poids souple avec une contrainte de
somme des poids constants.

Pour chaque critère on établit le classement des actions (matrice des


rangs) qu’on compare aux n ! Classements possibles. Cela permet d’établir
des cotes pour les classements théoriques possibles, la somme pondérée de
ces cotes donne un indice. On répète l’opération pour tous les jeux de poids
Les méthodes de surclassement 231

possibles et on retient le classement dont l’indice est le plus élevé pour


chaque jeu de poids.

Qualiflex [PAE 76] a été utilisée pour prendre des décisions relatives au
développement régional en ce qui concerne le choix d’investissements et
d’emplacements. C’est un cas de figure ou peu d’informations numériques
sont disponibles et ou les poids ne sont pas connus, le problème traité
comportait 21 critères classés de – à +++. Les auteurs souhaitaient définir
une fonction d’évaluation en termes purement ordinaux.

13.3.4. Oreste

C’est une méthode basée sur les rangs qui n’attribue pas de poids aux
critères. Il y a un ordre faible dans le rangement des critères à la place Ce
classement a été obtenu par un comité scientifique.

On part aussi d’une matrice des rangs. Cette méthode a été conçue pour le
choix de cinq ordinateurs à partir de 26 critères [ROU 82].

13.3.5. Méthode de surclassement dans l’incertain

Les évaluations des actions se présentent sous forme de distribution de


probabilité. On gère dans les calculs le caractère non ponctuel des
évaluations.

Puis on calcule comme dans Electre 3 et 4 et Prométhée puissance et


faiblesse en tant que variable aléatoire pour chaque action [DAV 88].

Alors on considère les médianes des distributions de ces deux


caractéristiques pour obtenir deux pré ordres complets.

D’autres méthodes SMAA3 transforment Electre 3 en système intégrant


l’incertain.

13.3.6. Exemple d’application industrielle

Nous présentons dans ce chapitre un exemple d’application de la méthode


Prométhée sur un cas industriel réel rencontré lors d’un stage de master
recherche chez Renault au service Strategic Environmental Planning de
232 La conception industrielle de produits 3

Guyancourt [HAJ 05]. Il s’agit du cas d’un problème de planification de mix


de moteurs véhicules dans les cinq à dix ans à venir.

13.3.6.1. Présentation du problème


Les constructeurs automobiles sont maintenant confrontés à trois types de
contraintes lorsqu’ils désirent adopter une nouvelle configuration
technologique de véhicule :
– des contraintes environnementales :
– minimiser les impacts environnementaux des véhicules (émissions
de CO2, utilisation de ressources naturelles comme les métaux et
plastiques) ;
– satisfaire les attentes environnementales des clients (configurations
hybrides, systèmes flex-fuel) ;
– des contraintes économiques :
– limiter les surcoûts dus à l’utilisation de nouvelles technologies
(surcoûts pour le constructeur comme pour le client) ;
– des contraintes législatives :
– respect des valeurs seuils imposées par la législation ou des
objectifs propres que s’est fixé le constructeur (par exemple : Renault s’est
fixé comme but de ne pas dépasser un taux d’émission moyen de 140g/km
d’ici 2008 sur son offre véhicules) ;
– incitations financières du gouvernement (pour l’achat de véhicules
hybrides par exemple) et des assurances pour des voitures propres.

Dans ce contexte, l’entreprise Renault a voulu prévoir, dans un segment


véhicule donné, quelle pourrait être l’offre faite aux clients dans les cinq à
dix ans à venir en matière de technologies de moteurs à essence. Les
principales voies technologiques sont déjà connues, même si elles ne sont
pas toutes encore au point ; citons-en quelques-unes correspondant à des
choix de conception et scénarios de développement globalement connus38 :
Mild Hybrid, Strong Hybrid, Medium Downsizing, Strong Downsizing,
Medium Weight, Strong Weight, etc.

Nous avons travaillé avec Renault à une méthode d’aide à la décision en


deux étapes qui a été décrite dans [HAJ 07]. Il s’agit d’aboutir à la meilleure

38. Les termes sont laissés en anglais car ce sont eux qui sont utilisés chez le constructeur.
Les méthodes de surclassement 233

stratégie de mix de moteurs véhicules sur le marché (dans cinq à dix ans)
pour le segment véhicule considéré. Nous entendons par mix la meilleure
combinaison des technologies sus-citées.

La première étape, que nous présentons ici, est une analyse multicritère
des technologies possibles de moteurs des points de vue à la fois du client et
du constructeur Renault, ceci par la méthode Prométhée. Le lecteur est invité
à télécharger le logiciel DecisionLab2000 pour modéliser le problème à
l’adresse suivante : http://www.visualdecision.com/dlab_f.htm. Pour des
raisons de confidentialité bien compréhensibles, nous ne fournissons dans ce
chapitre qu’une partie des données de modélisation ; il s’agit de celles
correspondant au client et nous cacherons donc celles correspondantes au
constructeur Renault. Néanmoins, nous fournissons les résultats tels que
nous les avons obtenus. Le lecteur est ainsi invité à imaginer des données
« réalistes » du coté constructeur. Les technologies de moteurs seront ainsi
classées par ordre de préférence selon les deux points de vue (client et
constructeur) et un sous-ensemble seulement de ces technologies seront
considérées comme suffisamment intéressantes pour être présentes sur le
marché dans le futur et, par conséquent, gardées comme données d’entrée de
la seconde phase de la méthode.

La seconde phase de notre méthode, qui n’est pas détaillée ici (voir
[HAJ 07] pour plus de détails) consiste en une optimisation multi-objectif de
la configuration de mix véhicules fournissant les proportions optimales des
moteurs issus de la première phase sur le marché qui, tout en respectant les
contraintes de prévision de vente des véhicules du segment et de non
dépassement du taux d’émission moyen fixé de CO2, maximise à la fois la
marge du constructeur et minimise l’utilisation de ressources naturelles.

13.3.6.2. Principes de préférences entre scores et flux de préférences entrant


et sortant
Imaginons deux alternatives de voitures, dénommées simple et luxueuse,
que nous comparons sous cinq critères : prix, puissance, consommation,
espace et confort (cet exemple est inspiré de Brans, Mareschal et Vincke
[BRA 86]). Une méthode de surclassement comme Prométhée-Gaia fait
l’hypothèse qu’un décideur tend à comparer deux à deux les alternatives
sous chacun des critères avant de décider quelle alternative a globalement sa
préférence. Le tableau 13.1 illustre la matrice de décision de départ
contenant, dans les trois colonnes médianes, les scores évalués des critères.
234 La conception industrielle de produits 3

En comparant deux à deux ces scores, on peut résumer dans deux


colonnes « différences » les différences avantageuses pour une des deux
alternatives, sachant que le prix doit être réduit autant que faire se peut, la
puissance maximisée autant que possible, etc. Une troisième étape de
préparation des données consiste à déterminer et quantifier si ces différences
de scores sont pas, peu ou très significatives selon le jugement du décideur
en question. Existe-t-il une limite de différence au-delà de laquelle il y a sans
aucun doute une dominance d’un score sur un autre ? Existe-t-il une limite
d’indifférence en deçà de laquelle le client n’est pas sensible aux différences
de scores ?

La méthode Prométhée Gaia propose d’associer une limite de préférence,


une limite d’indifférence et une fonction de préférence (voir figure 13.6) à
chaque critère de décision. Avec ces précisions, des valeurs de préférence
peuvent être quantifiées entre 0 et 1 (voir les colonnes extrêmes du
tableau 13.1), 0 à chaque fois que la différence des scores est en-deçà de la
limite d’indifférence, 1 à chaque fois que la différence est au-delà de la
limite de préférence.

Préfé- Diffé- Diffé- Préfé-


Matrice de décision
rence rence rence rence
1,0 0,0
- 22000 € 15000 € Prix 38000 €
0,0 50 kW Puissance 90 kW + 40 kW 1,0

0,5 -1 7.5 8.5 0,0


Consommation
L/100km L/100km L/100km
0,0 0,5
Mauvais Espace Bon + 2 points
0,0 Très 1,0
Confort Très bon + 4 points
mauvais
Voiture Simple Critères Voiture Luxueuse

Tableau 13.1. Exemple d’une matrice de décision pour deux alternatives de voitures
(inspiré de [BRA 86])

Au final, on voit bien qu’un degré de préférence peut être calculé pour
chaque alternative par une moyenne pondérée des degrés de préférence
élémentaires. Imaginons que tous les poids des critères soient égaux, le degré
de préférence agrégé serait de 0,3 pour la voiture simple et de 0,5 pour la
voiture luxueuse.
Les méthodes de surclassement 235

13.3.6.3. Etape de préparation des données dans notre cas d’application


Dans notre cas les technologies alternatives de moteurs sont : Mild
Hybrid, Strong Hybrid, Medium Downsizing, Strong Downsizing, Medium
Weight, Strong Weight, etc. Les technologies Hybrid sont coûteuses en
contrepartie d’une diminution conséquente de la consommation. Les
technologies Downsizing consistent en une réduction de la taille et donc de
la masse des moteurs par une augmentation de la pression interne et de
l’efficacité thermodynamique ; on note par conséquent une diminution de
l’utilisation de ressources naturelles. Les technologies Weight consistent
simplement en un choix de matériaux légers et une diminution du nombre de
pièces occasionnant une diminution de la consommation et de l’utilisation de
ressources naturelles. Deux niveaux d’application ont été considérés pour
chacune des trois familles de technologies.

La détermination des critères de décision a généré plus de débats au sein du


groupe d’experts ayant participé à l’établissement du modèle. Cinq critères ont
été retenus au regard des objectifs économiques, environnementaux et de
respect de la législation pour les deux parties prenantes : les clients d’un coté
et le constructeur automobile de l’autre. Les clients sont et resteront dans un
futur proche sensibles au prix, à la consommation, aux incitations fiscales et,
de plus en plus, au taux d’émission CO2. Du coté constructeur, le prix est lié à
la marge et le taux d’émission CO2 ainsi que la consommation de ressources
naturelles sont des performances préoccupantes tant sur le plan légal que du
point de vue de la différentiation commerciale. D’autres critères auraient
probablement mérité d’être considérés tels que : puissance, confort,
habitabilité, facilité de maintenance et d’entretien, garantie constructeur,
fiabilité et faisabilité technologique car certaines technologies ne sont pas
encore au point comme : Strong Hybrid, Strong Downsizing et Strong Weight.
Des échelles de mesure et une direction d’optimisation sont aussi précisées
pour les cinq critères (voir le tableau 13.2).

Critères Objectif Échelle et unité Min/Max


Prix Economique Euros (€) Minimiser
Incitations fiscales Economique Euros (€) Minimiser
Consommation d’essence Economique Euros (€) Minimiser
Émission de CO2 Environnemental et % diminution Minimiser
législatif
Consommation de Environnemental et kg Minimiser
ressources naturelles législatif

Tableau 13.2. Les 4 critères de décision


236 La conception industrielle de produits 3

Les scores pour les six technologies alternatives ont été évalués
relativement à une solution de référence qui correspond à une technologie
essence appartenant au même segment de véhicule. Le tableau 13.3
présente les améliorations relatives et éventuellement les détériorations
(c’est toujours le cas pour le prix) évaluées dans les unités
correspondantes. Ces scores sont factuels et dépendent peu
d’interprétations subjectives d’une partie prenante donnée. A l’inverse,
les limites de préférence et d’indifférence sont fortement dépendantes des
intérêts de la partie prenante : client ou constructeur. Les limites du point
de vue client sont fournies au sein du tableau 13.3. Pour des raisons de
confidentialité, les données relatives au constructeur sont gardées
secrètes et sont donc à imaginer par le lecteur. Des fonctions de
préférence de type linéaire ont été choisies ici (figure 13.6). Un jeu de
poids pour ces critères est également entré; il est donné en figure 13.7.
Toutes ces données concernant les clients (limites et poids) ont été
extraites d’une étude de marché réalisée par l’entreprise Renault.

Tableau 13.3. Table de décision, critères, échelles d’évaluation des critères,


type de fonctions de préférence, seuils de préférence et d’indifférence
Les méthodes de surclassement 237

Figure 13.7. Vecteur de poids pour le client

13.3.6.4. Résultats Prométhée 1 et 2 avec le plan Gaia et l’analyse de


sensibilité des poids
Un premier résultat d’analyse est fourni par la méthode Gaia qui est basée
sur une analyse statistique, en particulier sur une analyse en composantes
principales (ACP) des flux de préférences évalués séparément pour chaque
critère. Un plan Gaia est alors construit comme étant le plan principal issu de
l’ACP. Les critères sont représentés comme des vecteurs partant du point
origine du plan. La figure 13.8 représente le plan Gaia pour les clients. Deux
vecteurs parallèles dans la même direction signifient que les deux critères
correspondants sont parfaitement corrélés au sein de l’ensemble des
alternatives considérées. Deux vecteurs opposés représentent deux critères
antagonistes. La longueur d’un vecteur correspond à la sensibilité du critère
correspondant dans l’évaluation globale de l’alternative. Un petit critère-
vecteur signifie que toutes les alternatives présentent des performances
similaires pour ce critère ; un tel critère ne doit donc pas jouer un rôle
déterminant sur les classements Prométhée, quelque soit le poids affecté à ce
critère. C’est pourquoi un examen préalable du positionnement des vecteurs
suffit à repérer les principaux compromis que les décideurs de Renault
auront à prendre en compte. Ici (voir la figure 13.8), nous pouvons
clairement identifier trois groupes de critères corrélés : {prix} en bas à
droite, {consommation de ressources naturelles} en haut à droite, et
{incitations fiscales, consommation essence, taux d’émission CO2} à
gauche. Il est rassurant d’observer que les incitations fiscales sont bien
appropriées puisqu’elles promeuvent des technologies adaptées aux
principaux enjeux sociétaux, à savoir l’économie des énergies fossiles et la
minimisation du changement climatique.
238 La conception industrielle de produits 3

Sur le plan Gaia, les technologies alternatives sont aussi représentées


par des points. La proximité entre deux de ces points souligne des
impacts ou des profils de scores/performances similaires pour les
technologies considérées. A l’inverse, une distance importante en
apparence souligne des profils de performances/scores très différents. On
peut noter en figure 13.8 que Strong Downsizing et Medium Downsizing
sont proches, soulignant l’apparente similarité pour les clients.
Inversement, Full Hybrid et Medium Weight ont des profiles opposés. Il
existe aussi une correspondance intéressante entre les critères-vecteurs et
les technologies-points.

En effet, la projection orthogonale d’une alternative-point sur la


direction d’un critère-vecteur donné détermine la valeur du flux net
(puissance moins faiblesse). En conséquence, il est possible de
rapidement déterminer les puissances et faiblesses des technologies
alternatives par projections successives sur les critères-vecteurs.

Enfin, le vecteur des poids (de critères) est aussi représenté


graphiquement comme un vecteur (terminé par un disque rouge situé en
bas de la figure 13.8). Son orientation détermine les critères les plus
favorables et les critères les plus ignorés dans le compromis. Quand le
vecteur de poids est modifié par l’utilisateur, seul ce vecteur est modifié
dans le plan Gaia. Il est possible dans le logiciel Decision Lab 2000 de le
modifier interactivement pour étudier la sensibilité de la distribution des
poids sur les classements partiels et totaux, résultats des analyses
Prométhée 1 et 2. Une telle simulation doit permettre de prendre une
décision robuste pour ne pas être trop dépendant de la valeur de ces
poids.

L’utilisateur doit garder à l’esprit qu’un plan Gaia est la meilleure


représentation 2D d’un problème multi-dimensionnel. Une partie de
l’information est donc perdue dans cette approximation. La qualité de
l’approximation est fournie par le paramètre ∆ apparaissant en bas de la
fenêtre de la figure 13.8. Ce paramètre (compris entre 0 et 100 %) mesure
le degré d’explication statistique; ici une valeur excédant 90 % signifie
que la qualité de l’information 2D est bonne et que les interprétations
effectuées à partir de ces données sont fiables.
Les méthodes de surclassement 239

Figure 13.8. Le plan GAIA pour les clients

13.3.6.5. Résultats en termes de classements partiels et totaux


Le résultat de classement partiel de Prométhée 1 est donné en figure 13.9.
Seule la solution Full Hybrid est incomparable avec les autres solutions
puisqu’il dégage des puissances importantes ainsi que des faiblesses
importantes en même temps. Une fois totalement ordonné (voir
la figure 13.10) avec l’algorithme Prométhée 2, la solution Full Hybrid
apparaît au troisième rang du point de vue des clients. Pour les clients, les
trois technologies préférées sont : en premier la Strong Downsizing, en
second la Medium Downsizing et en troisième la Full Hybrid. Sans fournir
de plus amples détails, disons que le classement total du point de vue
constructeur est très proche. Dans [HAJ 07], ces trois technologies sont donc
conservées pour déterminer dans une seconde phase la proportion optimale à
mettre sur le marché.
240 La conception industrielle de produits 3

Figure 13.9. Classement partiel avec Prométhée 1 pour les clients

Figure 13.10. Classement total avec Prométhée 2 pour les clients


Les méthodes de surclassement 241

13.3.7. Logiciels existants

Electre Is généralisation Electre 1.

Electre III et IV respectivement avec poids et sans poids.

Electre Tri39.

Decision Lab 2000 (Prométhée 1, Prométhée 2 et Gaia)40.

39. Des versions de démonstration de ces logiciels se trouvent sur le site du lamsade – Paris
Dauphine http://l1.lamsade.dauphine.fr/logiciel.html.
40. Le logiciel est proposé sur le site http://www.visualdecision.com/dlab_f.htm (une version
de démonstration y est également proposée).
CHAPITRE 14

La méthode COMPARE pour l’aide


à la spécification et au choix de concepts
par comparaisons par paires

14.1. Introduction

Dès que les produits à concevoir doivent non seulement avoir des
fonctions d’usage relativement objectives mais doivent aussi inclure des
fonctions plus subjectives dites d’estime comme celles reliées à
l’esthétique, au style, aux valeurs culturelles et aux considérations
ergonomiques, à la fois les évaluations individuelles et de groupe des
produits ainsi que leur spécification pose problème. En effet, pour ces
deux tâches de conception (évaluation et spécification), les concepteurs
doivent déjà qualifier (et donc nommer) les propriétés attendues du
produit et trouver des échelles de mesure pertinentes pour les quantifier.
Dans ce chapitre, nous présentons une méthode de conception intitulée
COMPARE qui apporte de manière intégrée des réponses satisfaisantes
sur (1) la compréhension de l’espace perceptif d’un segment de produits
(pour nommer ce qui est perçu comme étant important avec de
commencer la conception en elle-même), (2) l’aide à la définition de
spécifications pour le développement d’un nouveau produit, (3)
l’évaluation de nouveaux concepts de produit émergeant du processus de

Chapitre rédigé par Bernard YANNOU.


244 La conception industrielle de produits 3

conception relativement aux propriétés attendues (fonctions de service et


attributs perceptuels). L’originalité de la méthode présentée est d’être
basée sur des comparaisons qualitatives de produits par paires sous les
différents attributs perceptuels considérés. Cette méthode s’avère très
intuitive et parlante pour le concepteur en générant par exemple
automatiquement des échelles de mesure pour les attributs sémantiques.
La méthode COMPARE est présentée ici au travers d’une
expérimentation d’analyse et de conception de planches de bord
automobiles.

14.2. Synoptique de la méthode COMPARE et introduction à l’analyse


perceptuelle des planches de bord

La figure 14.1 présente le synoptique de la méthode COMPARE. Le


déroulement de celle-ci s’appuie sur trois séminaires d’évaluation effectués à
des moments différents. Le premier séminaire est un séminaire d’experts
dont l’objectif est de collecter une masse d’informations perceptuelles sur
une catégorie donnée de produits ; dans le cas présent il s’agit de planches de
bord de voitures appartenant au même segment de voitures que celui
concerné par la conception du produit nouveau. Après le recueil de ces
premières évaluations perceptuelles, des calculs (régressions) sont menés qui
permettent à la fois une analyse qualitative (étape n° 1 de la figure 14.1) des
facteurs discriminants dans la différentiation des produits et l’accès à (étape
n° 2) l’aide à la génération des spécifications d’un produit nouveau. Mais si
cette spécification du besoin est réalisée par un panel de consommateurs,
c’est à nouveau un panel d’experts qui procède à l’évaluation des concepts
de produits (étape n° 3) qui émergent du processus de conception puisque ce
sont les experts les plus accoutumés aux dimensions perceptuelles proposées
à l’étape n° 1 (voir aussi [ZHO 06] pour savoir qui évalue). La principale
originalité de la méthode COMPARE tient en ce que les trois étapes, et
particulièrement les spécifications d’un nouveau produit et l’évaluation
perceptuelle des concepts proposés sont réalisées au travers de comparaisons
qualitatives avec des produits existants et récents de la même catégorie, et
ceci de manière très parlante et communicable à la fois pour les experts et les
consommateurs.
La méthode COMPARE 245

Figure 14.1. Synoptique de la méthode COMPARE

Pour le cas d’étude des planches de bord que nous avons étudié (voir
[HAR 05]), nous avons rassemblé durant une journée entière pour réaliser
l’étape n° 1, 11 experts du domaine automobile familiers de la vente de
véhicules ou tout au moins connaissant bien les vocabulaires technique et
commercial et l’actualité du domaine. Dix planches de bord de voitures
récentes d’un même segment (voir figure 14.2) ont été soumises à leur
évaluation ; il s’agit de (1) Audi A2, (2) Citroën C2, (3) Fiat Idea, (4)
Lancia Ypsilon, (5) Nissan Micra, (6) Peugeot 206, (7) Renault Clio, (8)
Renault Modus, (9) Toyota Yaris, (10) Volkswagen Polo. Les onze
experts ont été mis en situation pour leur évaluation (description de client
type, cadre simulé de l’évaluation). Ces aspects, ayant plus trait à
l’évaluation perceptuelle (voire premiers chapitres du présent ouvrage
pour cela), ne sont pas détaillés plus avant ici mais sont disponibles dans
[YAN 07a] ; [YAN 07b]. De la même manière le processus pour aboutir à
un jeu de critères d’évaluation sous la forme de onze descripteurs ou
attributs sémantiques décrivant à la fois les fonctions d’usage et d’estime
de ces planches de bord est détaillé dans les publications référencées. Ces
onze attributs sémantiques sont : agencement du tableau de bord,
compréhension des contrôles, design des aérateurs, rangement, confort,
simplicité, sportivité, masculinité, qualité perçue, nouveauté, harmonie.
246 La conception industrielle de produits 3

Figure 14.2. Les 10 planches de bord

14.3. La première étape d’évaluation perceptuelle par comparaisons par


paires

Les méthodes de comparaisons par paires (CP) sont des méthodes de base
bien connues du domaine de l’aide à la décision multi-critère (ADMC). Au
lieu d’évaluer directement le score particulier d’une performance d’un
produit (ici, un attribut sémantique) sur une échelle donnée d’une manière
absolue, l’idée est d’estimer l’importance relative de toute ou partie des
paires de produits selon cette performance. La plupart du temps ces
importances relatives s’expriment sous la forme de rapports de scores. Une
matrice de comparaisons est donc construite, elle est par la suite traitée
numériquement pour en extraire un vecteur de scores normalisé41 le plus
« réaliste » en fonction des données d’entrée. Il s’agit donc bien d’une
méthode qui génère automatiquement une échelle de notation lorsqu’on ne
dispose pas de sémantique ou d’unité particulière pour évaluer
quantitativement un produit selon un critère de décision.

41. Totalisant 100 %.


La méthode COMPARE 247

Les méthodes de comparaisons par paires (CP) sont connues pour


grandement simplifier la hiérarchisation ou notation d’un ensemble
d’alternatives (ici ce sont nos produits) car les décideurs (ici, nos experts)
n’ont qu’à se concentrer sur une paire d’alternatives et pour un seul
critère plutôt que d’être brutalement confrontés à du multicritère sur un
ensemble d’alternatives.

De manière à ne pas obliger les décideurs à remplir toute les matrices


de comparaisons comme dans la méthode de CP du « vecteur propre » de
Saaty [SAA 02], nous avons préféré utiliser la méthode de CP dite de
régression logarithmique aux moindres carrés (RLMC) proposée par de
Graan [DEG 80] et Lootsma [LOO 82]. Des matrices creuses sont alors
tolérées, ce qui est réellement préférable pour l’évaluation relative de
plus de 8 produits, pour lesquels, de plus, certaines comparaisons
relatives n’évoquent rien.

De plus, cette méthode RLMC de CP permet de prendre en compte


simultanément des matrices de comparaisons remplies de manière
séparée par les décideurs pour aboutir à un jeu unique de scores
normalisés, plutôt que de devoir procéder de manière consensuelle au
remplissage d’une seule matrice.

Certains auteurs de ce chapitre ont contribué à encore étendre cette


méthode RLMC avec plusieurs aspects intéressants : (1) des
comparaisons qualitatives peuvent être faites sur une échelle, dite de
Likert, à 7 niveaux (voir figure 14.3) : beaucoup plus petit, plus petit, un
peu plus petit, égal, un peu plus grand, plus grand, beaucoup plus grand,
(2) les comparaisons peuvent être modélisées avec une certaine
incertitude, (3) un indicateur de cohérence peut être calculé pour une
matrice de comparaisons de manière à permettre l’amélioration de la
qualité de la décision. Une description détaillée de cette méthode se
trouve dans [LIM 02] ; [LIM 04] ; [LIM 07].

Seule la première fonctionnalité est utilisée ici et il a été demandé à


chacun des onze experts de remplir onze matrices de comparaisons
qualitatives pour chacun des attributs sémantiques (une matrice de
comparaisons pour l’agencement du tableau de bord est visible en
figure 14.3).
248 La conception industrielle de produits 3

Figure 14.3. Le processus de comparaisons par paires

La comparaison par paires de produits s’avère très intuitive, pratique et


souple quant à la latitude laissée dans le choix des comparaisons. Bien
entendu, il y a un minimum de comparaisons à réaliser pour obtenir un
vecteur de scores ; il est notamment nécessaire de comparer au moins une
fois un produit donné avec un autre. Mais en général, les données de
comparaisons binaires sont en excès, c’est pourquoi cette méthode est plutôt
robuste pour fournir des vecteurs de scores de manière stable et donc précise
(moins arbitraire).

Répétons à nouveau que la valeur des scores n’a pas de signification


précise ; en réalité, ce vecteur n’est même pas montré aux experts. Par contre
ces 11×11 vecteurs de scores sont pris en compte dans une régression ou
analyse factorielle de type analyse en composantes principales (ACP) qui
aboutit à la superposition, dans un plan factoriel, des attributs sémantiques et
des produits. La figure 14.4 montre que les attributs sémantiques sont
représentés selon des vecteurs partant de l’origine, leur norme étant
proportionnelle à leur influence discriminante dans la comparaison des
produits et leur direction indiquant leur corrélation (vecteurs colinéaires de
même direction comme confort et qualité perçue), leur anti-corrélation
(vecteur colinéaires de directions opposées comme agencement du TdB42 et
simplicité) ou leur indépendance (vecteurs orthogonaux comme simplicité et
confort). L’analyse de ce plan factoriel permet également de graphiquement
positionner les produits dans l’espace perceptuel et donc de déduire

42. TdB : tableau de bord.


La méthode COMPARE 249

facilement leurs coordonnées selon les axes sémantiques ainsi que d’estimer
globalement leur éloignement perceptuel. Cette analyse est donc très
instructive pour les concepteurs d’une nouvelle planche de bord.

Figure 14.4. Analyse en composantes principales (ACP) des données


de comparaisons par paires

14.4. La deuxième étape de génération d’une spécification

A ce stade, deux solutions existent pour fixer au mieux les spécifications


d’un nouveau tableau de bord à concevoir selon les axes sémantiques. La
première solution est très utilisée par les mercateurs43 : il s’agit de
déterminer graphiquement l’emplacement d’une cible dans le plan factoriel
par différentiations (c’est-à-dire par éloignements suffisants) avec les
produits existants figurant comme des points. La figure 14.4 montre ainsi
l’exemple de la définition d’une cible au barycentre de solutions comme :
Peugeot 206, Lancia Ypsilon, Toyota Yaris, Audi A2 et Volkswagen Polo.
Cette façon de faire aboutit à la détermination immédiate d’un vecteur de
scores cibles. Ceci est globalement insatisfaisant car, comme nous l’avons
dit, ces valeurs de scores ne signifient rien en elles-mêmes et leur
transmission à des concepteurs sera peu significative pour eux.

43. Ou marketeurs.
250 La conception industrielle de produits 3

Une des principales originalités de la méthode COMPARE est de


permettre de définir ce vecteur de scores cibles par des contraintes
(comparaisons) relatives et qualitatives avec les planches de bord existantes
selon les différents attributs sémantiques. Par exemple, dans la figure 14.5,
on spécifie que :
– « le TdB cible doit être moins bien agencé que le TdB n° 3 »,
– « le TdB cible doit être aussi bien agencé que le TdB n° 9 ».

Figure 14.5. Détermination d’une spécification cible par complémentation


des matrices de comparaisons

Une ligne et une colonne correspondant au produit cible sont donc


rajoutés à chaque matrice de comparaisons et un nouveau calcul de CP est
relancé sur ces nouvelles matrices de comparaisons. Le score cible pour
l’attribut Agencement du TdB est obtenu (ici 4,7 %) et les scores pour les
autres planches de bord existantes sont légèrement modifiées pour continuer
à totaliser 100 %. Ces modifications de scores prouvent qu’ils n’ont pas de
signification profonde en eux-mêmes, la donnée la plus importante et qui
reste elle inchangée est celle des contraintes relatives de la cible avec les
planches de bord existantes. Cette façon de spécifier de manière littérale est,
de manière évidente, très parlante pour les concepteurs.

Ici ces spécifications ont été réalisées en interrogeant des consommateurs.


La méthode COMPARE 251

14.5. La quatrième étape d’évaluation de nouveaux concepts de solution

Imaginons maintenant que, suite à la spécification d’une planche de


bord cible, un nouveau concept de TdB est proposé par les concepteurs.
L’évaluation de ce nouveau concept est alors réalisée en plusieurs
étapes :
– le nouveau concept est comparé aux dix TdB existantes, comme
pour la cible en ajoutant une ligne et une colonne à chaque matrice de
comparaison et en comparant au minimum une fois ce nouveau concept
pour chaque attribut sémantique. Les nouvelles comparaisons sont
réalisées par des experts ;
– un nouveau calcul de CP est alors relancé sur des matrices 12×12
pour obtenir de nouveaux scores pour les TdB existantes mais aussi le
TdB cible et le nouveau concept ;
– les spécifications doivent maintenant être complétées par une
fonction de satisfaction (et des seuils correspondants) pour chaque
attribut sémantique (voir tableau 14.1). La fonction de Satisfaction Si(.)
de l’attribut sémantique i permet de calculer la valeur de Satisfaction
Si(Ci, Dij) (comprise entre 0 et 1) qui est fonction du score Cible Ci et de
la valeur courante du score Dij de la solution n° j. Trois types de
fonctions de satisfaction (voir figure 14.6) sont proposées : au moins, au
plus, autour pour signifier que le score cible est un score minimal,
maximal ou visé. Des seuils de flexibilité (notés x % et y % dans le
tableau 14.1) exprimés en pourcentage du score cible permettent
d’exprimer une (in)satisfaction évoluant progressivement ;
– finalement, les spécifications doivent être complétées par un vecteur
de poids pi pour notifier l’importance des attributs sémantiques eux-
mêmes. (Voir le tableau 14.1). Ce vecteur est obtenu par une
comparaison par paires entre attributs réalisée par un panel de
consommateurs ;
– une procédure de notation des solutions (les dix TdB existants plus
le nouveau concept) est entreprise en utilisant la méthode d’aide à la
décision multicritère AHP (Analytical Hierarchy Process, voir
[SAA 80]). Une matrice de satisfactions est alors construite avec en
lignes les attributs sémantiques, en colonnes les solutions (les dix TdB
existants plus le nouveau concept) et ayant pour contenu la valeur donnée
( )
par la fonction de satisfaction Si Ci , Dij .
252 La conception industrielle de produits 3

Cette matrice est normalisée en lignes44 pour donner une matrice de


satisfactions normalisées dont les termes sont donnés par :

s ij = Si (Ci , Dij ) / ∑ Si (Ci , Dij )


N
(14.1)
j =1

Enfin, une note finale est attribuée à chaque planche de bord j (existante
et concept candidat) par la formule :
R
Note( j ) = ∑ pi .s ij (14.2)
i =1

R étant le nombre d’attributs sémantiques. Un rang est alors établi


entre les solutions existantes et le concept candidat.
Il faut alors espérer que le concept candidat est classé premier. Si ce n’est
pas le cas, cela signifie qu’une solution déjà existante correspond mieux au
nouveau cahier des charges que le concept de planche de bord candidate.
La matrice de satisfactions est remplie de satisfactions élémentaires
(valeurs comprises entre 0 et 1) pour chaque attribut sémantique. Cette
matrice indique donc très clairement pour une solution où sont les pistes
d’amélioration ou de reconception, au niveau des attributs sémantiques qui
ne donnent pas satisfaction.

Attributs sémantiques Score Poids pi Type de Seuil de Seuil de


cible Ci fonction de flexibilité flexibilité
satisfaction x% y%
Agencement du TdB 12 % 1 30 %
Compréhension des contrôles 10 % 2 30 %
Design des aérateurs 5% 1 30 %
Rangement 15 % 3 15 % 15 %
Confort 8% 2 30 %
Simplicité 6% 1 30 %
Sportivité 5% 3 15 % 15 %
Masculinité 4% 2 30 %
Qualité perçue 11 % 2 30 %
Nouveauté 14 % 3 15 % 15 %
Harmonie 10 % 1 30 %

Tableau 14.1 Données de spécifications dans COMPARE

44. De manière à répartir 100 % sur toutes les solutions pour un attribut sémantique donné.
La méthode COMPARE 253

Figure 14.6. Les fonctions de satisfaction de COMPARE

14.6. Conclusion

La méthode COMPARE présentée dans ce chapitre, permet de


comprendre l’espace perceptuel d’un segment de produits, d’aider à définir
la spécification d’un nouveau produit, ainsi qu’à évaluer des nouveaux
concepts candidats, ceci en comparant simplement de manière qualitative les
solutions par attributs sémantiques. Cette méthode s’est avérée très aisée,
pratique et flexible à mettre en œuvre. Cela a pu être démontré sur l’exemple
de l’évaluation perceptuelle de dix planches de bord (voir [HAR 05 ;
YAN 07a ; YAN 07b]). La méthode COMPARE s’appuie sur une méthode
de comparaison par paires originale qui a permis cette souplesse d’utilisation
(voir [LIM 02 ; LIM 04 ; LIM 07]).

Le processus d’évaluation perceptuelle décrit ici a aussi servi de base à


une étude ultérieure originale consistant à synthétiser des tendances sur les
paramètres de conception des planches de bord en partant de niveaux
attendus des attributs sémantiques (voir [BEN 07a ; BEN 07b ; BEN 07c]).
CHAPITRE 15

Les options réelles en ingénierie


de la conception : opportunités et défis
sur le problème du mix des moteurs véhicules

15.1. Introduction

La méthode des options réelles a été jusqu’alors utilisée comme une


approche pour prendre des décisions dans le domaine financier ou « des
affaires ». Une option réelle représente le droit, mais pas l’obligation,
d’entreprendre une action donnée, typiquement il s’agit de l’option de
réaliser un investissement de capital. Plus récemment, on a commencé à
explorer l’utilisation des options réelles pour l’évaluation et l’optimisation
sous incertitude de « systèmes d’ingénierie » au sens large. Dans ce chapitre,
après avoir évoqué les perspectives nouvelles que nous offrent les options
réelles en ingénierie comparativement aux autres méthodes d’aide à la
décision, les principes seront présentés et nous définirons un cadre
d’application de cette méthode pour l’évaluation et l’optimisation du
problème déjà évoqué de mix de moteurs véhicules. Nous verrons que la
théorie des options réelles est mieux adaptée pour appréhender le
positionnement stratégique et économique d’un constructeur automobile sur
le marché. L’incertitude affecte ici le prix et la demande aussi bien que les
caractéristiques futures de la technologie. Nous nous intéresserons ici plus

Chapitre rédigé par Harriet BLACK NEMBHARD et Bernard YANNOU.


256 La conception industrielle de produits 3

précisément à la seconde partie du problème évoqué précédemment. Nous


partirons donc d’un ensemble regroupant les principales technologies – ou
voies technologiques – de moteurs de véhicules, issues par exemple d’un
premier classement multicritère de ces moteurs par la méthode Prométhée.
Nous allons explorer l’utilisation de l’approche des options réelles pour
modéliser et évaluer la flexibilité dans l’accroissement de la capacité d’un
portefeuille de mix moteurs donné ainsi que dans le choix même de ce
portefeuille de moteurs. Cet exemple nous permettra de mieux appréhender
les deux propriétés caractéristiques de l’approche des options réelles
relativement aux autres méthodes d’aide à la décision multicritères que sont
son aptitude à la modélisation des gains financiers, ainsi que celle de la prise
en compte de l’horizon temporel dans l’évolution des incertitudes. Nous
esquisserons alors une discussion plus large sur les opportunités et défis des
options réelles dans des applications d’ingénierie de la conception.

15.2. La théorie des options réelles relativement aux autres méthodes


d’aide à la décision

Les concepteurs et fabricants ont toujours dû s’adapter à des


environnements changeants. Des changements de technologies disponibles
ainsi que des modifications du paysage concurrentiel ont toujours été des
facteurs des ces adaptations. D’autres forces motrices sont plus récentes
comme la volonté d’étendre ses marchés par un plus haut degré de
diversification des produits ainsi que la législation environnementale (voir
[MOR 04]). L’aspect primordial des préférences du (des) consommateur(s) a
aussi fondamentalement modifié la logique du marché, les consommateurs
demandant de plus en plus de diversité produit et s’attendant à voir de
nouveaux produits apparaître régulièrement.

Une stratégie courante est d’augmenter la flexibilité de la production, ce


qui se montre efficace dans un monde avec des cycles de vie produit courts,
un temps de développement produit court, et une incertitude substantielle de
la demande et/ou du prix. Pour les constructeurs automobiles, le fait d’avoir
ou de gérer un portefeuille de modèles de véhicules ainsi que de moteurs
produits et proposés aux clients en même temps – le « mix moteurs » – est
une approche pour augmenter la flexibilité aux incertitudes et variations de
la demande. Par exemple, Hajji, Yannou, et Baglin-Schühler [HAJ 07] ont
identifié qu’un constructeur automobile prévoit dans les cinq à dix ans à
venir six principales technologies de moteurs correspondant à des choix de
Les options réelles en ingénierie de la conception 257

conception et scénarios de développement, à savoir : Mild Hybrid, Strong


Hybrid, Medium Downsizing, Strong Downsizing, Medium Weight, Strong
Weight, etc. Les technologies Hybrid se réfèrent à un mélange de sources de
puissance ; les technologies Downsizing se réfèrent à la réduction de la taille
des moteurs par l’augmentation de la pression interne et de l’efficacité
thermodynamique ; les technologies Weight se réfèrent à l’utilisation de
matériaux plus légers et à la réduction du nombre de pièces. En principe, le
fait de disposer de plusieurs alternatives intéressantes de technologies
moteurs et de prévoir des taux de production différents et, éventuellement,
évolutifs dans le temps, devrait avoir une valeur pour l’entreprise supérieure
au fait de n’offrir qu’une seule technologie moteur pour les clients. Selon
Trigeorgis [TRI 99], si le fait que la flexibilité ait une valeur est évident au
niveau conceptuel, cela devient étonnamment subtil quand il s’agit de
l’appliquer.

De nombreuses approches classiques d’aide à la décision multicritère ont


été utilisées pour modéliser les bénéfices de la flexibilité. La théorie des
options réelles ayant été développée dans un contexte financier, elle est plus
adaptée à l’évaluation de la flexibilité (voir [TRI 90]). La flexibilité entraîne
un coût et une évaluation soigneuse des bénéfices doit être réalisée de
manière à le justifier. Sans ce travail, une entreprise risque de sous-investir
ou de prendre de mauvaises décisions concernant des investissements dans
des technologies clés ou des stratégies. La flexibilité représentant un
avantage compétitif pour l’entreprise, la question majeure est comment
l’évaluer ? La théorie des options réelles va offrir un cadre pour estimer la
valeur des options – qui sont ici des alternatives de mix moteurs – dans un
environnement incertain en donnant les moyens de gérer les risques et de
réagir aux incertitudes dans le temps.

15.3. Les options réelles dans les systèmes de production

Les concepts des options réelles sont disponibles dans Hull [HUL 03] ou
Mun [MUN 06]. Une option est définie comme le droit, mais pas
l’obligation, de prendre une action dans le futur. Le possesseur de l’option
n’est pas obligé d’exercer ce droit. Les deux types de base des options sont
« call » et « put ». Une option de type call est le droit d’acheter un bien
avant une date donnée pour un prix prédéterminé appelé prix d’exercice. Les
options sont aussi catégorisées comme européennes ou américaines. Une
option européenne donne au détenteur le droit « d’exercer » l’option, c’est-à-
258 La conception industrielle de produits 3

dire d’acheter effectivement l’action, seulement à la date d’expiration. Une


option américaine donne au détenteur le droit « d’exercer » l’option à la date
ou avant la date d’expiration.

L’approche des options réelles est une extension de la théorie de l’option


financière à des options sur les biens réels, c’est-à-dire non financiers. Fixer
la valeur des options réelles est une opération des plus importantes dans des
situations de grande incertitude où les décideurs peuvent être sensibles à
toute nouvelle information. En effet, alors que le temps s’écoule, des
informations qui n’étaient pas connues jusqu’alors peuvent devenir connues
ou quasi certaines, transformant fondamentalement l’estimation de la valeur
de l’option. L’inverse est également possible pour des contextes politiques
ou législatifs où des situations stables peuvent être brusquement remises en
question.

La littérature des options réelles est assez importante ; Dixit et Pindyck


[DIX 94] ainsi que Schwartz et Trigeorgis [SCH 01] en ont fait des revues.
Plusieurs auteurs ont étudié leur utilisation dans le cadre des systèmes de
production et des technologies flexibles de production : Brennan et Schwartz
[BRE 85] ; Hodder et Triantis [HOD 93] ; Kogut et Kulatilaka [KOG 94] ;
Huchzermeier et Cohen [HUC 96] ; Dasu et Li [DAS 97] ; Smith et
McCardle [SMI 98]. Plus spécifiquement sur les systèmes de production, on
trouve : Nembhard, Shi, et Park [NEM 00] ; Nembhard, Shi, et Aktan [NEM
02], [NEM 03], [NEM 05a] ; Nembhard, Nembhard, et Qin [NEM 05b]. Des
travaux relatant la conception de systèmes d’ingénierie se trouvent dans :
Hassan et de Neufville [HAS 06] ; et Cardin, de Neufville, et Dahlgren
[CAR 07]. Ces efforts se sont traduits par des systèmes de simulation
concrets en ingénierie.

15.4. Contraintes et critères sur le mix de moteurs véhicules

Dans ce chapitre, nous reconsidérons le problème du choix d’un mix


de moteurs véhicules présenté par Hajji, Yannou, et Baglin-Schühler
[HAJ 07]. Les auteurs déterminent un mix, c’est-à-dire une répartition
idéale, à horizon de cinq ans, du nombre de moteurs parmi six
technologies dont on estime la sensibilité des clients aux performances à
l’instant présent. La méthode qu’ils utilisent est une méthode
relativement classique d’aide à la décision qui a été évoqué dans cet
ouvrage : la méthode de surclassement PROMETHEE I et II. La méthode
Les options réelles en ingénierie de la conception 259

des options réelles va permettre d’introduire de la flexibilité en autorisant


une évolution de ce mix dans le temps. Nous proposons donc de
considérer un mix donné comme une option à laquelle correspond des
exigences et capacités de production. Ces options sont donc autant de
changements envisagés dans le futur avec un délai pour les mettre en
œuvre si les décideurs le jugent opportun. L’intérêt d’exercer cette option
dépend de plusieurs facteurs. En quantifiant ces facteurs, il est possible
d’aboutir à un outil d’aide au choix dans les changements des données et
du processus de production. Pour certains facteurs, il s’agira d’investir
financièrement à temps dans l’évolution de l’outil industriel.

Comme mentionné dans Hajji, Yannou et Baglin-Schühler [HAJ 07],


lorsqu’un fabricant de voitures veut adopter une nouvelle configuration
technologique de véhicule, ils sont confrontés à trois types de
contraintes : environnementales, économiques et législatives.

Les considérations environnementales se traduisent à la fois par des


contraintes pour le fabricant et par une communication et un engouement
des clients de plus en plus évident pour des « produits verts ». Pour les
fabricants, cela signifie une pression de plus en plus forte pour réduire le
taux d’émission de CO2 ainsi que l’utilisation de ressources naturelles
(voir les deux articles [ENS 07a], [ENS 07b]. Cela signifie aussi qu’il
faut savoir répondre à des demandes spécifiques comme les véhicules
hybrides et les systèmes « flex-fuel ».

D’un point de vue économique, il est important pour un fabricant de


voitures de déterminer avec exactitude quel est le moment opportun de
répondre à la demande évolutive du marché pour des produits verts. Dans
un système complexe, il est vital d’avoir l’aptitude de réagir aux
évènements alors qu’ils sont en train de se dérouler. Donc, comme la
demande en produits verts peut augmenter ou diminuer, il devient évident
de pouvoir maintenir le potentiel de flexibilité du système de production
à un certain niveau. C’est certainement une approche pour limiter les
surcoûts dus à la mise en œuvre des nouvelles technologies, aussi bien
pour le fabricant que pour les consommateurs.

Hajji, Yannou, et Baglin-Schühler [HAJ 07] ont également posé le


problème des critères pertinents pour la prise de décision sur le mix de
moteurs véhicules. Ils ont ciblé cinq critères en particulier : le prix
d’achat, la consommation de carburant, les incitations fiscales, le taux
260 La conception industrielle de produits 3

d’émission CO2, et la consommation de ressources naturelles. Ils ont


mentionné que des critères comme : la puissance du véhicule, le confort,
la fiabilité et la faisabilité technologique pouvaient, entre autres, être
ajoutés à cette première liste.

Face à ces contraintes et critères de décision, leur but a alors été de


maximiser le profit pour le fabricant tout en minimisant la consommation
de ressources naturelles. Cependant, les questions clés suivantes
subsistent : est-il utile de conserver une certaine flexibilité de manière à
pouvoir modifier la valeur du mix de moteurs véhicules produits alors que
des incertitudes se présentent et trouvent des réponses au fur et à mesure
que le temps s’écoule et les décisions se prennent ?

15.5. Cadre et méthodes

Nous proposons par la suite un cadre à l’approche des options réelles


pour déterminer les stratégies optimales entre un mix moteurs véhicules
statique et un flexible, ainsi que comment déterminer le bon réglage de
cette flexibilité. Nous allons procéder en deux étapes.

La première étape ne diffère pas de celle proposée par Hajji, Yannou,


et Baglin-Schühler [HAJ 07]. Elle consiste en une analyse multicritère
des points de vue à la fois du fabricant et du consommateur pour
effectuer un premier filtre des technologies de moteurs les plus
intéressantes dans les cinq ans à venir. Les cinq critères mentionnés sont
donc utilisés selon les deux points de vue pour sélectionner trois
technologies moteurs selon un mix dit initial (répartition des trois types
de moteurs selon une enveloppe de demande prévue).

La seconde étape va consister pour nous à considérer deux types de


flexibilité. Le premier type est d’étendre ou contracter la production totale de
moteurs pour suivre la demande du marché. Le second type de flexibilité est
de choisir un nouveau mix de moteurs lorsqu’une nouvelle technologie
s’améliore ou qu’elle devient industriellement viable. Du point de vue du
constructeur automobile, la capacité à étendre la production se paie cher
mais doit permettre de générer de plus grands profits encore. De manière
similaire, le fait de modifier le mix de moteurs véhicules génère des coûts,
mais ceci dans l’espoir de saisir des opportunités et de générer des bénéfices
financiers. Il est alors légitime de se poser des questions comme : quel est
Les options réelles en ingénierie de la conception 261

l’attrait supplémentaire pour le consommateur occasionné par un mix de moteurs


véhicules comportant telle ou telle alternative écologique ? De quelle manière
un mix donné positionne-t-il le constructeur de manière stable relativement à
l’évolution de la législation environnementale européenne comme le taux
moyen d’émission CO2 par km sur le parc voiture vendu dans l’année ? Que se
passe-t-il en cas de variabilité inattendue des prévisions de vente ?

En face d’une telle incertitude, il n’est pas suffisant et même


imprudent d’utiliser la seule méthode de l’actualisation des flux de
trésorerie45 (en anglais Discounted Cash Flow, DCF). Comme Mun
[MUN 06] l’explique : « une option de type expansion fournit au
management le droit et la possibilité d’étendre ses opérations courantes à
des conditions déterminées. Une option de type choix implique que le
management a la flexibilité de choisir parmi différentes stratégies,
incluant les options d’étendre – expansion –, d’abandonner – abandon –,
de contracter – contraction –, de transformer – transformation – ». Une
option d’expansion donnera donc une flexibilité à un fabricant de
véhicules en lui donnant le droit, sans obligation, d’accroître sa capacité
de production et de poursuivre un investissement dans une technologie à
valeur ajoutée. Ces technologies intéressantes peuvent « être de plus
impactées par des groupes d’options à exécuter au même moment. On
peut ainsi créer une série d’options composites où le succès d’un groupe
d’initiatives dépend du succès d’un autre en séquence ».

Lorsque le mix de moteurs véhicules est flexible, l’entreprise peut


adapter le mode de production aux différentes technologies. En utilisant
l’approche des options réelles, l’entreprise peut déterminer les stratégies
optimales et la valeur maximale résultant de la flexibilité dans un
système (voir [TRI 90]). L’avantage déterminant d’une modélisation et
d’une simulation du type options réelles est d’intégrer la flexibilité
managériale dans une analyse de type rentabilité et, par là même,
permettre de prendre les meilleures décisions [BRA 03].

Les options réelles ont déjà été utilisées dans l’industrie automobile.
En particulier, Mun [MUN 06] écrit que « General Motors (GM) applique
les options réelles pour créer des options de transformation lors de la

45. Un flux de trésorerie actualisée est le montant qu’on est prêt à payer aujourd’hui en
prévision de recevoir un flux de trésorerie dans le futur.
262 La conception industrielle de produits 3

production de ses nouvelles séries de voitures. Il s’agit principalement de


décider d’utiliser une ressource meilleur marché sur une période de temps
donnée. GM possède des matières premières en excès et a des
fournisseurs de matériaux identiques avec des obligations contractuelles
au-delà de ce qui est strictement nécessaire pour permettre une grande
flexibilité dans les achats. Le surcoût des contrats avec les fournisseurs
est plus que compensé par des économies significatives réalisées en
passant d’un fournisseur de matière première à un autre lorsqu’une
matière première spécifique devient trop onéreuse en un endroit donné du
monde. En dépensant de l’argent en contractant avec plus de fournisseurs
que nécessaire ainsi qu’en assurant le volant minimum de commande
exigé par le contrat, GM a ainsi acheté une option de transformation. Une
telle option est ici de plus un mécanisme de garantie contre les variations
de prix. »

15.6. Formulation d’une option d’expansion

Comme il a été dit précédemment, une approche est de modéliser le


mix initial de moteurs véhicules comme une option d’expansion. Cela
signifie que lorsque la demande change nous gardons le même mix
(proportion des technologies moteurs) mais nous ajustons les quantités.
Pour cela, nous considérons la valeur actuelle nette (VAN) basée sur des
techniques traditionnelles d’actualisation des flux de trésorerie (ou aussi
DCF) pour une demande fixe. Nous modélisons alors la valeur
supplémentaire obtenue en utilisant le cadre des options réelles pour
différer une décision sur le mix véhicule ou échelonner cette décision
dans le temps. De manière à utiliser l’approche des options réelles pour
chiffrer les bénéfices d’une flexibilité de production, nous supposons que
la valeur nette du système de production peut se mettre sous la forme
d’une distribution de probabilité durant l’horizon de temps des décisions
considérées (voir les hypothèses sous-jacentes dans Bass [BAS 69], et
Bollen [BOL 99]).

Il est intéressant de considérer la mise en œuvre d’une des plus


simples options : une option européenne de type call (voir [COX 79,
BRO 07, AMR 99]) que nous allons relier à un accroissement de la
production. Il y a six variables à définir dans une option de ce type. Le
tableau 15.1 montre comment on peut les relier aux évolutions de
production.
Les options réelles en ingénierie de la conception 263

Evolution de production Option européenne de Variable


type call
Valeur financière des immobilisations dues Prix du stock St
aux en-cours de production
Charges d’exploitation (travail, matériaux, Prix d’exercice X
etc.)
Temps restant pour décider d’un changement Délai jusqu’à expiration T
de production
Taux d’actualisation Taux d’actualisation r
Moyenne et variance des caractérisations de Moyenne et variance des µ ,σ 2
transition rendements sur stock

Tableau 15.1. Lien entre une évolution de production et une option européenne de type call

Etant donné que le projet de production se matérialise en définitive en un


produit fini, nous pouvons considérer la valeur produite comme le prix du
stock au temps t (St). Le travail et les matériaux nécessaires sont les dépenses
ou charges d’exploitation qui jouent le rôle du prix d’exercice (X). Le délai
jusqu’à expiration de l’option (T) est interprété comme étant le temps restant
pour décider d’un changement de production. Le taux d’actualisation (r) est
le taux bancaire de placement dit « non risqué ». La moyenne et variance des
caractérisations de transition est similaire à la moyenne et variance des
rendements sur stocks (µ, σ 2). C’est une source de volatilité et d’incertitude
car si nous retardons la décision de lancer la production, le processus peut
être caractérisé par une transition différente. Pour une option européenne de
type call, la valeur actuelle nette (VAN) d’une option réelle (OR) à son
expiration est donnée par la formule (15.1) (voir Fu et Hu [FU 95]) :

( ( )
VAN OR = max ST µ ,σ 2 − X ,0 e − rT ) (15.1)

Cette équation traduit que la valeur de l’option sera la plus grande des
deux valeurs entre zéro et la différence entre le prix du stock et le prix
d’exercice, multipliée par un terme d’ajustement qui prend en compte la
valeur de l’argent dans le temps. Si la politique de production ou de mix
moteurs véhicules est entièrement décidée au début, une valeur actuelle nette
(VAN) obtenue par le critère de valeur maximum VAND peut être obtenue en
conséquence. Cet incrément positif de valeur est la valeur VOR donnée par la
formule (15.2) :

VOR = VANOR − VAN D (15.2)


264 La conception industrielle de produits 3

En d’autres termes, puisque VANOR incorpore flexibilité et adaptabilité et


dépasse NPVD, VOR indique la valeur de la flexibilité en utilisant l’approche
des options réelles comparée à la valeur de la flexibilité donnée par les
techniques traditionnelles d’actualisation des flux de trésorerie.

Les treillis binaires46 sont des approximations des options de type call
qui sont utilisées pour modéliser les VANOR. Deux treillis binaires sont
nécessaires : le premier est le treillis de la valeur de production sous-jacente
alors que le second est le treillis de la valeur des options. Nous supposons
que les options durent pendant le temps T et que l’intervalle de temps ∆T
sépare deux instants où les valeurs sont évaluées. Par exemple, si une option
a une étendue de maturité de un an et que le treillis binaire présente dix pas
d’évaluation, alors chaque pas de temps a un intervalle de temps de 0,1
année. Durant la vie d’une option, sa valeur s0 peut soit augmenter de s0 à
un nouveau niveau s0u soit diminuer de s0 vers un nouveau niveau s0 d ,
avec u et d définis par la formule (15.3) :

1
u = eσ ∆T
et d = (15.3)
u
La volatilité σ est une valeur annualisée de la valeur actuelle nette de la
production avec une capacité fixée. Nous utilisons la volatilité de production
annuelle σ Q pour déterminer σ comme dans Mun [MUN 06]. Les facteurs
d’augmentation ( u ) et de diminution ( d ) sont aussi reliés par le taux
d’intérêt à risque neutre donné par la formule (15.4) :

e r∆ T − d
p= (15.4)
u−d

Où r est le taux d’actualisation ou de placement non risqué.

Pour créer le treillis des valeurs de production sous-jacentes, il faut partir


de s0 puis le multiplier par les facteurs d’augmentation ( u ) et de diminution
( d ) pour créer les branches hautes et basses comme le montre la figure 15.1.

46. Un treillis est une structure de graphe orienté acyclique, donc ne présentant pas de
référence circulaire.
Les options réelles en ingénierie de la conception 265

On a donc au ième pas une valeur de production de la forme :

s ti = s 0 u i d t −i ( i = 0, 1,L , t ) (15.5)

La valeur d’une option est générée par les incertitudes et le risque


contenus par la mesure de volatilité σ : plus la mesure de volatilité est
élevée, plus les facteurs d’augmentation sont élevés et plus la valeur
potentielle d’une option est élevée. En pratique, il existe plusieurs logiciels
fiables pour générer les calculs des valeurs finales et des nœuds
intermédiaires.

Temps

Figure 15.1. Treillis de valeurs de production sous-jacentes

Au fur et à mesure que de nouvelles informations sont disponibles,


l’incertitude relative aux flux financiers futurs se réduit et le treillis binaire
est mis à jour pour les variables concernées. La flexibilité peut alors être
modélisée dans le treillis de valeurs des options en offrant des degrés
variables de flexibilité pour le treillis des actifs sous-jacents.

15.7. Exemple numérique

Nous présentons l’exemple numérique du calcul et de l’interprétation


d’une option de type expansion en suivant l’approche de Mun [MUN 06].
Les figures sont basées sur une collaboration et des discussions passées avec
l’entreprise Renault où des données expérimentales ont été analysées pour
266 La conception industrielle de produits 3

déterminer des chiffres réalistes sur la demande, la volatilité, et les


paramètres d’expansion et de contraction sur un horizon de cinq ans.

Supposons qu’un modèle d’actualisation des flux de trésorerie (qui


donne la valeur actuelle des flux monétaires futurs attendus à un taux
d’escompte ajusté sur les risques du marché) montre que l’entreprise a une
valeur de 131 millions d’euros. Supposons aussi que la volatilité des
rendements logarithmiques sur les futurs flux monétaires projetés soient de
25 %, σ = 0,25. Le taux d’actualisation pour les cinq prochaines années est
estimé à 7 %, r = 0,07. Supposons que l’entreprise a l’option d’étendre ses
opérations de 30 % en augmentant la capacité de production pour la somme
de 27 millions d’euros à tout moment sur les cinq prochaines années T = 5.

La valeur totale de cette entreprise incluant l’option d’expansion est


chiffrée à 151 millions d’euros au travers d’un calcul de treillis binaire. La
figure 15.2 montre de manière combinée un treillis de décision (première
ligne au sein des nœuds), le treillis des valeurs de production sous-jacentes
(deuxième ligne au sein des nœuds) et le treillis des valeurs d’option
(troisième ligne). Ces données sont produites par le logiciel Real Options
Analysis Tool®. Les calculs effectués sont commentés par la suite.

Le treillis des valeurs de production (ligne 2) est déterminé en utilisant les


facteurs d’augmentation u = 1,2840 et de diminution d = 0,7788 calculés à
partir de l’équation (15.3) et le taux d’intérêt à risque neutre p = 0,5813
calculé à partir de l’équation (15.4). Le treillis des valeurs de production est
calculé par la suite. Par exemple, en partant d’une valeur actuelle nette de 131
millions d’euros à t = 0, le nœud suivant correspondant à une augmentation
donne (131 euros) (1,2840) = 168,21 millions d’euros, et le nœud suivant
correspondant à une diminution donne (131 euros) (0,7788) = 102,02 millions
d’euros. Le reste des calculs sur le treillis peut être facilement vérifié.

La prochaine étape est de calculer le treillis des valeurs d’option (ligne 3).
Dans la figure 15.2, le nœud A affiche une valeur de 567,41 millions
d’euros, qui correspond à une maximisation de l’expansion. Etendre les
opérations revient à augmenter la capacité de production de 30 % au même
nœud où la valeur est de 457,23 millions d’euros ; cela rapporte donc en
considérant un coût d’expansion de 27 millions d’euros à (1,30)(457,23) –
27 = 567,41 millions d’euros. La décision maximisant le profit est
évidemment de réaliser cette expansion, la valeur de 567,41 millions d’euros
est donc agrémentée de la décision d’expansion « EXPAND ».
Les options réelles en ingénierie de la conception 267

Taux de placement
non risqué : 7%
Volatilité : 25%

Figure 15.2. Le treillis de décision de l’option d’expansion (première ligne), le treillis


des valeurs sous-jacentes de production (deuxième ligne), et le treillis
de la valeur d’option (troisième ligne)

A l’inverse, au nœud B où la valeur sous-jacente est de 61,88 millions


d’euros, une expansion signifierait une valeur de (1,30)(61,88) – 27 = 53,44
millions d’euros. La direction ne prendrait alors pas une décision d’étendre
la production, conférant alors une valeur de 61,88 millions d’euros avec la
décision « END » puisqu’il s’agit d’un nœud terminal sur l’horizon des
cinq ans.

A un nœud intermédiaire, par exemple au nœud C, l’entreprise a deux


options : étendre ses opérations à partir de ce point ou garder l’option
ouverte dans l’espoir de l’utiliser dans le futur. La valeur d’étendre à ce
nœud est de (1,3)(215,98) – 27 = 253,77 millions d’euros. La valeur de
continuer (sans étendre) est simplement la moyenne pondérée actualisée des
valeurs d’option futures potentielles en utilisant une probabilité de risque
neutre : [(p)(337,05)+(1-p)(195,20)]exp[(-r)(δt)] = 258,89 millions d’euros.
268 La conception industrielle de produits 3

En utilisant cette approche, le treillis sous-jacent est calculé à partir du


nœud de départ en obtenant une valeur de 151,95 millions d’euros qui est
la VANOR. Puisque la valeur obtenue par l’actualisation des flux de
trésorerie est de 131 millions d’euros pour la production courante, la
valeur d’étendre la production actuellement est de (1,30)( 131) – 27 =
143,30 millions d’euros qui correspond à VAND.

En n’étendant pas les opérations aujourd’hui mais en conservant


l’option de le faire dans des conditions de marché plus favorables,
l’entreprise vaut plus que sa valeur statique. Plus précisément, la
différence VANOR – VAND = 151,95 – 143,30 = 8,65 millions d’euros est
la valeur des options réelles VOR (équation 15.2). Cette valeur représente
6 % de la valeur des opérations, si elle n’était pas considérée, l’entreprise
serait donc sous-évaluée.

D’après Mun, « Le fait d’avoir une option et de parfois conserver cette


option ouverte est valable étant donné un environnement des affaires très
incertain. En fait, dans les conditions réelles des affaires, le coût
d’acquisition peut changer dans le temps et le facteur d’expansion peut
aussi changer tout au long des circonstances du marché. Toutes ces
sophistications peuvent être traduites dans le treillis. »

De plus, si la valeur de l’option n’était pas considérée par les


managers de l’entreprise, ils seraient incapables de prendre des décisions
stratégiques efficaces.

15.8. Discussion et conclusion

Les fabricants automobiles accordent une grande importance à


déterminer un mix véhicules qui soit à la fois stratégique et qui présente
un avantage économique sur le marché. Il est évident que l’incertitude
affecte le système de production au niveau du prix de vente, de la
demande et de l’évolution des technologies elles-mêmes. Dans le cadre
d’un ensemble de technologies (ou voies technologiques) de moteurs
véhicules, nous avons envisagé dans ce chapitre qu’il serait tout à fait
bénéfique d’utiliser l’approche des options réelles pour modéliser et
évaluer la flexibilité de production en explorant l’expansion de la
capacité globale d’un mix véhicules ou en modifiant les proportions de ce
mix au gré des évènements. La théorie des options réelles semble promise
Les options réelles en ingénierie de la conception 269

à un bel avenir comme outil d’aide à la décision en ingénierie de la


conception car elle permet d’incorporer des modèles prévisionnels
financiers évolués dans la résolution de problèmes d’importance comme
le choix de technologies de conception ou de fabrication (voir aussi [KRI
02]) ou le choix d’un scénario d’éco-conception (choix de matériaux,
désassemblage, recyclage, etc., voir [MAN 02]).
CHAPITRE 16

47 Application des Rough Sets


à la prise de décision

16.1. Introduction

La méthode des Rough Sets est un nouveau concept mathématique que l’on
peut traduire par ensembles « vagues ou imprécis ». Cette approche a été
introduite au début des années quatre-vingt et peut être considérée
comme originale vis-à-vis des autres méthodes d’aide à la décision
[PAW 82]. Le but est de traiter de l’information vague ou imparfaite,
inhérente aux situations de décision, pour en retirer une classification. Au
départ, des différences peuvent être perçues entre divers objets pour former
des classes d’objets n’ayant pas de différences fondamentales. Cette
indiscernabilité à l’intérieur des classes permet de construire une connaissance
de système. Dernièrement, le concept des Rough Sets a été utilisé pour traiter
des problèmes de décision multicritère [PAW 94]. Un modèle de préférence
est alors construit à partir de lois déduites de sous ensembles significatifs en
termes d’objectifs. En résumé, les Rough Sets prennent en compte deux
aspects : l’indiscernabilité et la connaissances approximative.

Malgré sa difficulté de compréhension, la théorie des Rough Sets ne


nécessite aucune connaissance sur les poids et seuils de chaque critère
puisque son principe [GRE 1999] consiste à partir d’un échantillon de

Chapitre rédigé par Jean RENAUD.


272 La conception industrielle de produits 3

produits, pris à partir d’une population, de classer les produits par ordre de
préférence de l’expert afin d’obtenir des règles de préférences et de non
préférences. Ce classement de l’échantillon se fait selon une cible marché ou
client. Ainsi, la connaissance de l’expert est « englobée » dans le classement.

16.2. Développement théorique

Le point de départ de la théorie des Rough Sets est la définition d’une


relation indiscernable. A cause d’un certain manque d’information, cette
relation montre le fait que nous sommes incapables de discerner certains
objets à partir de l’information disponible. Cela implique l’utilisation de
plusieurs objets plutôt que d’un seul pour pouvoir faire des comparaisons.
Un système d’information (IS) peut être défini de la manière suivante,
IS = (U, A) , avec :

U comme l’ensemble défini des objets, U = {x1, x2, …, xm} et A


l’ensemble des attributs (caractéristiques ou variables). Chaque attribut
comporte différentes valeurs (a), appelé le domaine de l’attribut,
fa : U → Va, un exemple est donné dans le tableau 16.1 suivant :

U a1 a2 a3
x1 2 1 3
x2 3 2 1
x3 2 1 3
x4 2 2 3
x5 1 1 4
x6 1 1 2
x7 3 2 1
x8 1 1 4
x9 2 1 3
x10 3 2 1

Tableau 16.1. Exemple 1, inspiré de l’article « Rough Sets theory » de B. Walczak

(IS) : U = {10, 3}; V1 = {1, 2, 3}, V2 = {1, 2}, V3 = {1, 2, 3, 4} (16.1)


Application des Rough Sets à la prise de décision 273

Relation d’indiscernabilité : deux objets sont indiscernables dans A, si


b(xi) = b(xj). Le nouvel ensemble B indiscernable (Ind(B)) est défini, B
⊂ A. Pour chaque élément xi de U, la classe d’équivalence de xi en
relation avec Ind(B) est représentée par [xi]Ind(B). Pour l’exemple 1
(tableau 16.1.) : x1, x3 et x9 sont identiques pour tout ai. A partir de
l’exemple ci-dessus, U/A en est déduit (tableau 16.2) :

U/A a1 a2 a3
{x1, x3, x9} 2 1 3
{x2, x7, x10} 3 2 1
{x4} 2 2 3
{x5, x8} 1 1 4
{x6} 1 1 2

Tableau 16.2. Valeurs de U/A tirés de l’exemple 1

Si l’on ne prend pas en compte l’attribut a3, le nouvel ensemble


indiscernable U/B devient (tableau 16.3) :

U/B a1 a2
{x1, x3, x9] 2 1
{x2, x7, x10} 3 2
{x4} 2 2
{x5, x6, x8} 1 1

Tableau 16.3. Valeurs de U/B sans l’attribut a3

Alors, l’attribut a3 est considéré comme indispensable, sinon il est


considéré comme superflu. Ce qui est le cas pour a2, mais pas pour a1.

Approximations basses et hautes : l’approche des Rough Sets repose sur


deux concepts de base, appelés approximations hautes et basses :
– l’approximation basse correspond à l’ensemble des objets
indiscernables ou certains,

BX* = {xi ∈ U | [xi]Ind(B) ⊂ X} (16.2)


274 La conception industrielle de produits 3

– l’approximation haute correspond à l’ensemble des objets possibles,

BX* = {xi ∈ U| [xi]Ind(B) ∩ X ≠ 0} (16.3)

Un nouvel ensemble BNBX = BX* - BX* est ensuite défini, appelé région
bornée de BX. Si la région bornée correspondant à l’intersection entre ces
deux approximations haute et basse est un ensemble vide, c’est-à-dire
BN = ∅, l’ensemble sera précis. Si par contre, la région bornée n’est pas
vide, c’est-à-dire BN ≠ ∅, l’ensemble sera appelé ensemble vague ou
imprécis (« Rough »). Pour illustrer schématiquement ces concepts
d’approximation, nous proposons un tracé graphique selon la figure 16.1,
inspiré de Walczak et Massart. Un ensemble X est symbolisé par un ovale.
L’approximation basse est représentée par des carrés hachurés à l’intérieur
de l’ovale, alors qu’il faut ajouter des carrés gris pour représenter
l’approximation haute. Les rectangles gris seuls représentent la région
bornée, ou frontière, de l’ensemble X. D’où l’intérêt d’avoir développé cette
théorie des Rough Sets. La base de cette théorie repose donc sur la définition
de la région bornée.

Un indice de précision de l’approximation est défini comme suit :

BX *
α (B) = , avec 0 ≤ α(X) ≤ 1 (16.4)
BX*

Où X est le cardinal de l’ensemble X.

Ensemble « approximatif »
Approximation basse Approximation haute

Figure 16.1. Approximations haute et basse d’un ensemble X


Application des Rough Sets à la prise de décision 275

Dépendance et indépendance des attributs : pour contrôler si les attributs


sont dépendants ou non, on vérifie si leur suppression diminue le nombre
d’ensembles élémentaires au niveau de la matrice des objets.

Si Ind(A) = Ind(A-ai), alors l’attribut ai est superflu, sinon il est


indispensable dans A. On dit que l’ensemble B est indépendant (orthogonal)
si tous ses attributs sont indispensables. Le sous-ensemble B’ de B est
l’ensemble réduit de B si B’ est indépendant et I(B’) = I(B). Le noyau de B
est l’ensemble de tous les ensembles indispensables des attributs de B. Les
concepts de réduction (reduct) et de cœur (core) sont fondamentaux dans la
théorie des Rough Sets.

Core (B) = ∩ Red (B) (16.5)

Dans le tableau 16.2, la suppression de l’attribut a1 ne change pas le


nombre d’ensembles élémentaires. Ce qui n’est pas le cas pour les attributs
a2 et a3. Une autre manière de rechercher les attributs indispensables et
d’établir la matrice des réductions à partir de la matrice U/A et de comparer
les ensembles élémentaires deux à deux. La matrice de discernabilité devient
(tableau 16.4) :

{x1, x3, x9} {x2, x7, x10} {x4} {x5, x8} {x6}
{x1, x3, x9}
{x2, x7, x10} a1, a2, a3
{x4} a2 a1, a3
{x5, x8} a1, a3 a1, a2, a3 a1, a2, a3
{x6} a1, a3 a1, a2, a3 a1, a2, a3 a3

Tableau 16.4. Matrice de discernabilité

Pour connaître les attributs indispensables, il s’agit de calculer la fonction


de discernabilité qui a la forme suivante en utilisant les opérateurs de
disjonction et de conjonction :

f(A) = (a1∨a2∨a3)∧a2∧(a1∨a2)∧(a1∨a3)∧(a1∨a3)∧(a1∨a2∨a3)∧(a1∨a2∨a3)∧
(a1∨a2∨a3)∧(a1∨a2∨a3)a3
(16.6)

Ce qui donne : f(A) = a2∧a3


276 La conception industrielle de produits 3

Table de décision : supposons que les attributs a1 et a2 soient les


conditions des systèmes d’information et D, un attribut décision. IS devient
une table de décision (tableau 16.5).

U a1 a2 D
x1 2 1 1
x2 3 2 2
x3 2 1 1
x4 2 2 2
x5 1 1 3
x6 1 1 3
x7 3 2 2
x8 1 1 3
x9 2 1 1
x10 3 2 2

Tableau 16.5. Table de décision

En appliquant la matrice de discernabilité et après réduction des


ensembles {x1, x3, x9} {x2, x7, x10} {x4}{x5, x6, x8}.

{x1, x3, x9} {x2, x7, x10} {x4} {x5, x6, x8}
{x1, x3, x9} a1, a2 a2 a1
{x2, x7, x10} a1, a2 a1 a1, a2
{x4} a2 a1 a1, a2
{x5, x6, x8} a1 a1, a2 a1, a2

Tableau 16.6. Table de décision après réduction

F1(D) = a1.a2, F2(D) = a1, F2(D) = a1.a2 et F3(D) = a1 (16.7)

Les règles de décision sont alors données par la table suivante :

a1 a2 D
F1(D) 2 1 1
F2(D) 3 * 2
F2(D) 2 2 2
F3(D) 1 * 3

Tableau 16.7. Règles de décision


Application des Rough Sets à la prise de décision 277

En résumé, la théorie des Rough Sets, introduite au début des années


1980 par Z. Pawlak [PAW 82], peut être utilisée dans le cadre de l’aide à la
décision [PAW 97]. Cette théorie a été récemment utilisée pour traiter des
problèmes de décision multicritère [PAW 94]. Basées sur la théorie des
ensembles « approximatifs ou vagues», les Rough Sets sont un concept qui
consiste à traiter l’information «vague» ou «imprécise» inhérente aux
situations de décision, pour en retirer une classification. Au départ, des
différences peuvent être perçues entre divers objets pour former des classes
d’objets n’ayant pas de différences fondamentales : c’est le principe
d’indiscernabilité.

La méthode des Rough Sets a évolué grâce à différents auteurs


[HAP 98][GRE 01][GRE 02] en introduisant la notion de règles de
préférence et de non préférence. Son principe consiste à extraire un
échantillon d’actions ou d’alternatives et de les faire classer par un expert
par ordre de préférence. Ce classement constitue une « mesure » des
préférences de l’expert que l’on va convertir en règles de préférence et de
non préférence, sous forme de code binaire. Ce profil décisionnel est alors
appliqué à l’ensemble des actions de la population afin de définir des zones
de préférences grâce au calcul d’un score.

16.3. Table de décision et règles de préférence

Un autre modèle, celui de préférence est construit à partir de lois déduites


d’un sous ensemble d’actions ou produits significatifs en termes d’objectifs.
Une table de décision est élaborée pour un nombre restreint nr de solutions
potentielles, choisis dans la zone de Pareto (si elle existe) [REN 03]. Cette
table représentée dans le tableau 16.8, comporte trois éléments : chaque paire
d’actions parmi l’échantillon restreint choisi, une valeur de fonction uk(ai,aj)
pour chaque paire (ai,aj) et chaque critère k, et un indicateur de préférence
ou de non préférence de ai par rapport à aj.

Paire f1 f2 …………… fn I

HP (ai,aj) u1(ai,aj) u2(ai,aj) ………... un(ai,aj) P

HN (aj,ai) u1(aj,ai) u2(aj,ai) ………… un(aj,ai) N

Tableau 16.8. Présentation générale d’une table de décision


278 La conception industrielle de produits 3

Un classement préalable est effectué pour l’échantillon restreint


d’actions ai. Les valeurs des fonctions uk sont calculées à partir des relations
de dominance, en considérant que les critères sont à minimiser [GRE 99] :

⎧1 si f k (a i ) < f k (a j )
u k (a i , a j ) = ⎨ (16.8)
⎩0 sinon

De plus, l’indicateur I de préférence ou de non préférence prend la valeur


P si ai est préféré à aj, et N dans le cas contraire. La construction de la table
de décision suppose que le décideur est capable d’exprimer ses préférences
en classant un petit nombre de points ou d’actions. A partir de celle-ci, la
relation indiscernable de l’ensemble H des paires d’actions choisies est
défini par :

I(H) = {(ai,aj),i ∈[1…nr], j ∈ [1…nr] et i≠j / uk(x) = uk(y) ∀k ∈ H et y ∈H} (16.9)

Face à des éléments de HP qui peut avoir les mêmes caractéristiques


qu’un élément de HN vis-à-vis de leurs valeurs de fonctions de dominance,
deux sous-ensembles sont définis, les approximations haute Q* et basse Q*
de l’ensemble HP.

Q*(HP) = {(ai, aj) ∈H / I(H) ∩ HP ≠ ∅ (16.10)


Q* (HP) = {(ai, aj) ∈ H / I(H) ⊆ HP} (16.11)

L’approximation haute de HP contient toutes les paires d’actions (ai, aj) de


HP ou HN dont les relations de dominance sont toutes dans HP.
L’approximation basse de HP contient toutes les paires d’actions (ai, aj) de HP
ayant des relations de dominance que l’on ne retrouve pas dans HN. Les
approximations hautes et basses de l’ensemble HN se déterminent de façon
similaire.

Les relations de dominance pour chaque paire d’actions (voir


tableau 16.8) forment alors l’ensemble des règles de décision.

SI (comparaison des fonctions entre ai et aj) ALORS indicateur.

Parmi celles-ci, seules les règles déterministes sont retenues, c’est-à-dire


celles qui entraînent un indicateur de préférence ou de non préférence. Une
même règle pouvant entraîner l’une et l’autre conclusion est exclue. Des
règles déterministes sont extraites, représentées par les lois de décision.
Application des Rough Sets à la prise de décision 279

Exemple de règles :

Loi n° 1 (101), si f 1 (a i ) ≤ f 1 (a j ) , f 2 (a i ) < f 2 (a j ) et f 3 (a i ) < f 3 (a j ) alors :


ai f a j (16.12)

Loi n° 2 (100), si f 1 (a i ) > f 1 (a j ) , f 2 (a i ) ≥ f 2 (a j ) et f 3 (a i ) ≥ f 3 (a j ) alors :


ai N f a j (16.13)

Les relations de préférence et de non préférence sont respectivement


notées f et N f .

Les règles déterministes sont ensuite appliquées à l’ensemble des m


points de la zone de Pareto (si elle existe sinon à l’ensemble des points).

Tous les points sont comparés deux à deux. Suivant la vérification d’une
règle déterministe ou pas, des fonctions de préférence locale Sj+ et Si- sont
calculées pour chaque paire (bi,bj), respectivement pour le comparant bi et le
comparé bj.

Si (bi , b j ) ne vérifie pas de règle déterministe :

+ −
Alors S j (bi ) = 0 et S i (b j ) = 0 (16.14)

+ −
⎧⎪Q = 1 si bi f b j
Sinon S j (bi ) = 2Q − 1 et S i (b j ) = 1 − 2Q où ⎨ (16.15)
⎪⎩Q = 0 si bi N f b j

Par un bilan des fonctions de préférence locale, une fonction de


préférence globale S est définie pour chaque point ou produit. Cette
expression peut s’apparenter au bilan de flux écrit précédemment [THI 03].

Chaque action, point ou produit est ensuite classé suivant les valeurs de
leur fonction de préférence globale décroissantes.

m m (16.16)
S(b ) = ∑ S + (b ) + ∑ S − (b )
i j i j i
j =1 j =1
j≠i j≠i
CHAPITRE 17

48 L’analyse des mesures conjointes

17.1. Les racines et applications

L’analyse des mesures conjointes est, depuis trois décennies, une


méthode fortement répandue dans le monde anglo-saxon [WIT 89]. Appelée
plus fréquemment analyse conjointe, elle commence par les travaux de Luce
et Tukey [LUC 64] qui ont mis au point des procédures pour mesurer
simultanément l’effet conjoint d’au moins deux variables nominales sur une
troisième mesurée sur une échelle ordinale. D’autres chercheurs, notamment
Tversky [TVE 67] a poursuivi sur un plan théorique et Kruskal [KRU 65],
qui sont à l’origine des développements de l’analyse multidimensionnelle
non métrique, ont travaillé sur la mise au point d’algorithmes. L’analyse des
mesures conjointes est bien adaptée à l’étude des jugements ou des processus
de décision du consommateur fondés sur une logique rationnelle ou
analytique. Cette analyse s’est révélée d’un grand intérêt en recherche
marketing qui a été introduite en 1970 [KRI 04] afin d’aider à l’optimisation
des composantes des variables marketing.

Sa relative facilité de mise en œuvre, du fait de l’existence de logiciels


performants, en fait une méthode attrayante pour résoudre de nombreux
problèmes liés aussi à l’ingénierie de la conception et, plus particulièrement
pour pré optimiser les attributs d’un produit ou/et une gamme de produits
[HAJ 07].

Chapitre rédigé par Jean-Pierre MATHIEU.


282 La conception industrielle de produits 3

17.2. Objectifs et contrainte d’application

L’analyse des mesures conjointes permet à partir de préférences


exprimées globalement par combinaison de modalités de facteur, d’estimer
l’utilité ou le système de valeurs qu’attache le consommateur à chaque
facteur (marque, design) et à chaque modalité de chacun des facteurs (prix
A, prix B ou prix C par exemple pour le facteur prix). Ses résultats peuvent
ensuite être utilisés pour valider l’intérêt de nouvelles offres de produits et
de services [MAH 91], ou encore pour analyser la concurrence en simulant
d’éventuelles évolutions des offres sur le marché [WIT 89]. Dans ce sens,
l’analyse des mesures conjointes est l’une des méthodes les plus
performantes lorsqu’il s’agit d’optimiser le marketing d’une offre produit,
sous réserve du respect d’un certain nombre de contingences ou de
contraintes d’application.

Ce type d’analyse est contingent à ce que les variables explicatives soient


de nature nominale (c'est-à-dire qu’elles permettent de transcrire aisément
une information verbale sous une forme numérique) et, de plus, qu’elle
puissent être représentées sous la forme de facteurs. Quant aux variables à
expliquer, elles peuvent être soit mesurées sur des échelles d’intervalle soit
plus généralement sur des échelles ordinales. Dans le premier cas, le
répondant attribuera une note (par exemple 1 à 10) à chaque modalité des
facteurs ; dans le second cas il donnera un ordre de préférence (classement)
entre différentes combinaisons de modalités des facteurs.

Dans la pratique, on décrit des concepts par un ensemble d’attributs et


chaque concept présente au moins une différence par rapport aux autres. Par
exemple l’approche dite par profils complets consiste à faire évaluer
l’ensemble des combinaisons possibles par les personnes interrogées.

17.3. Les étapes d’une analyse des mesures conjointes

L’analyse des mesures conjointes peut-être mise en œuvre par une


méthode à cinq étapes qui peut conduire à des recommandations
managériales particulièrement pertinentes dans les domaines des sciences de
l’ingénieur et de gestion (voir la figure 17.1).

La première étape consiste dans le choix d’un modèle de préférence.


Dans une seconde étape, il s’agit d’identifier les variables explicatives
L’analyse des mesures conjointes 283

(ou attributs pertinents) et de définir les différents niveaux de ces attributs.


En général, on procède par une phase exploratoire qualitative [MAT 04],
puis une phase quantitative permet de sélectionner les attributs les plus
importants et notamment ceux les plus discriminants sur les variables
expliquées.

La troisième étape permet de construire les concepts, ou stimuli, et de


résoudre un problème combinatoire important. Car comme il est hors de
question de faire juger plus d’une vingtaine de concepts, des méthodes de
réduction devront être adoptées en fonction des contextes rencontrés. Pour la
quatrième étape, on recueille les préférences des répondants pour les stimuli
auxquels ils sont exposés. C’est lors de cette étape que se pose généralement
le choix d’une méthode de mesure, et notamment le choix d’une échelle de
préférence, mais aussi, le choix d’une méthode d’administration, c'est-à-dire
par comparaison deux à deux ou plutôt un classement direct.

Enfin, la dernière étape permet l’estimation du modèle choisi et consiste


aussi à en dériver les utilités. Généralement les modèles répondent à
l’axiome suivant : l’utilité d’un stimulus est égale à la somme de l’utilité
partielle propre à chacune des caractéristiques du stimulus. Les méthodes
d’estimations dépendront essentiellement des choix de mesures. Elles
couvrent donc l’ensemble des techniques statistiques explicatives. Il y a un
travail d’estimation pour chaque individu et on estime autant de modèle qu’il
y a d’individu ce n’est donc pas une « moyenne » du besoin. Dans ce sens,
l’analyse des mesures conjointes permet l’exploitation intensive de ses
résultats.

L’obtention des utilités de chacune des modalités pour chaque individu


fournit des données précieuses pour résoudre les problèmes d’optimisation
d’un produit sous contrainte de coût, mais aussi la simulation des parts de
marché en fonction de certaines caractéristiques comme par exemple le
design.

Dans la pratique, on décrit des concepts par un ensemble d’attributs et


chaque concept présente au moins une différence par rapport aux autres.
Ainsi, l’approche dite par profils complets consiste à faire évaluer
l’ensemble des combinaisons possibles par les personnes interrogées.
L’analyse des mesures conjointes permet d’aller au-delà de l’estimation de
l’importance globale d’une caractéristique et de détailler cette importance
pour plusieurs niveaux de performance et donc de satisfaction des attentes.
284 La conception industrielle de produits 3

Cette analyse permet un travail complet sur une présentation globale d’un
concept ou d’un produit, tout en prenant en compte les interactions entre les
différentes caractéristiques de celui-ci. Dans ce sens, la présentation des
objets peut être faite sous diverses formes (schémas, concepts écrits, image
virtuelle, etc.). Bien entendu, la méthode des profils complets devient
rapidement inutilisable lorsque le nombre d’attributs et de modalités
augmente. A titre d’exemple, l’étude de cinq attributs présentant trois
modalités nécessiterait le classement de 3x3x3x3x3 = 243 concepts, ce qui
ne peut pas raisonnablement être demandé aux personnes interrogées.

Etape 1 : choix d’un


modèle

Etape 2 : identifier les


attributs pertinents et
leurs modalités

Etape 3 : définir les


concepts et stimuli

Etape 4 : recueillir les


préférences

Etape 5 : calcul des


utilités et l’importance
des attributs

Optimisation de la Simuler les parts de


conception du marché et les
produit stratégies
concurrentielles

Figure 17.1. Les étapes de l’analyse des mesures conjointes


L’analyse des mesures conjointes 285

La méthode dite des profils partiels permet de pallier cet inconvénient en


ne faisant évaluer qu’un nombre restreint des variantes possibles (pour un
exemple voir dans [GRE 75]). De plus, l’utilisation d’un matériel de
présentation des concepts et la singularité de la tâche assignée aux sujets
interrogés nécessite une collecte de données spécifique et relativement
coûteuse. On peut cependant noter que le développement actuel des
présentations des concepts et de collecte en ligne sur Internet a néanmoins
permis de lever en grande partie ce frein.

17.3.1. Détermination des attributs

La détermination des attributs est faite selon l’idée que ce sont ceux qui
les contrôlent qui en ont la meilleure connaissance. Il s’agit de l’ensemble
des attributs déterminants (positifs ou négatifs) qui influencent les
préférences. La liste des attributs peut-être obtenue par la méthode du
« questionnaire dual » qui consiste à interroger le répondant sur l’importance
des attributs et leur capacité à différentier les offres connues des personnes
interrogées. Ensuite, un score de déterminance est calculé par le produit de la
note d’importance par la note de différentiation. Un ensemble de critères de
décision donne la possibilité de ne retenir que les seuls attributs dont le score
de déterminance est supérieur à la grande moyenne calculée sur l’ensemble
des attributs [ALP 71]. Mais, comme nous l’avons évoqué ci-avant, il est
cependant très difficile de retenir tous les attributs et toutes les modalités
souhaitables.

Les attributs retenus ne doivent pas être corrélés entre eux (c’est-à-dire
être orthogonaux), exigence introduite par les méthodes d’estimation des
utilités retenues, car l’existence de corrélations fortes entre attributs peut
fausser l’estimation des utilités mais aussi créer des combinaisons de
modalités aberrantes [GRE 90]. Dans tous les cas, si plusieurs attributs sont
fortement corrélés, il est conseillé de les regrouper dans des attributs
globalisants.

17.3.2. Les méthodes de collecte des données

Les méthodes généralement proposées nécessaires à une analyse des


mesures conjointes sont : le profil complet, le trade off, la comparaison par
paires et la méthode hybride. Une comparaison de la méthode du profil, mise
286 La conception industrielle de produits 3

en œuvre avec le logiciel ACA et utilisant les ressources de la méthode


hybride [PULL 00] montre que la méthode du profil complet permet de
mieux prédire les choix que les deux autres méthodes, à savoir le trade off et
la comparaison par paire.

17.3.2.1. La méthode du profil complet


Dans cette méthode, toutes les combinaisons de modalités de facteurs
sont décrites séparément soit sur une fiche décrivant le produit, soit par des
images ou par le recours à des prototypes de produit (avec aujourd’hui la
possibilité de recourir au prototypage virtuel).

17.3.2.2. La méthode du trade off


La méthode du trade off utilise deux attributs (ou facteurs) à la fois. Il
est demandé aux sujets de classer par ordre de préférence toutes les
combinaisons des modalités des deux attributs. Nous obtenons donc une
matrice croisant l’ensemble des combinaisons des modalités de facteurs
pris deux à deux et le répondant doit évaluer successivement chaque
cellule. Cette méthode est donc plus simple puisque l’on traite la
préférence du répondant sur chaque couple de modalité de deux attributs.

17.3.2.3. La méthode des comparaisons par paire


Cette méthode emprunte aux deux méthodes précédentes, en effet,
comme dans la méthode trade off, les différents concepts sont présentés
deux à deux, à nouveau la méthode est très simple, le répondant doit
donner sa préférence pour l’une des deux combinaisons d’attributs de
facteurs. Mais il est souhaitable de limiter le nombre de facteurs lorsque
toutes les combinaisons de paires sont utilisées. Dans le cas d’un nombre
important de combinaisons de modalité de facteurs, il est possible de
recourir aux plans fractionnés qui n’emploient qu’un sous ensemble plus
petit de combinaisons.

17.3.2.4. La méthode hybride


Les analyses des mesures conjointes hybrides [GRE 90] sont plus
adaptées à la collecte d’information lorsqu’un grand nombre de facteurs
existe, mais également à évaluer certaines interactions en plus des effets des
facteurs. En effet, le répondant doit tout d’abord évaluer sur une échelle
graduée la désirabilité de chaque modalité d’attribut ainsi que l’importance
de l’attribut. L’ensemble de réponse ainsi collecté permet en multipliant
L’analyse des mesures conjointes 287

l’importance par la désirabilité d’obtenir une échelle d’utilité du répondant


qui réduit la taille du plan factoriel en le limitant aux attributs les plus
désirables et les plus importants.

17.3.3. Le choix d’un modèle de combinaisons des utilités

Le modèle le plus utilisé est le modèle additif, c’est un peu la colonne


vertébrale de l’analyse des mesures conjointes. Celle-ci suppose deux
hypothèses : la linéarité et l’additivité des utilités. Cette dernière stipule que
l’utilité du concept est formée par la somme des caractéristiques qui
définissent le concept. En outre, les logiciels actuels proposent différentes
options pour le choix du modèle, par exemple des options d’utilités partielle
ou « partworth ».

17.3.3.1. Choix d’une méthode d’estimation des utilités


Plusieurs algorithmes existent et permettent d’estimer les utilités de
chaque modalité de facteur. Les principaux sont le modèle PREFMAP, le
modèle LINMAP , MONANOVA. La régression par la méthode des
moindres carrée est aussi utilisée notamment lorsque les préférences sont
exprimées sous la forme d’une échelle d’intervalle ou de rapport [CAR 95].
La régression logistique ou le modèle Probit sont utilisés lorsque des
comparaisons par paires sont effectuées. Le tableau 17.1 ci-dessous
synthétise les caractéristiques des algorithmes dans les logiciels les plus
courants, tiré des travaux de Oppewal, [OPP 95].

CONJOINT CONSURV SPSS SPEED ACA


ANALYSER

Nb maxi d’attributs 30 32 10 16 10

Nb maxi de 16 10 9 16 9
modalités
Simulateur de part oui oui oui non oui
de marché

Tableau 17.1. Caractéristiques comparées des logiciels d’analyse des mesures conjointes
(source : Oppewal H, [OPP 95])
288 La conception industrielle de produits 3

17.4. Interprétation et évaluation de la qualité des résultats

17.4.1. Les tests de validations

Pour vérifier que les estimations des utilités fournies par les mesures
conjointes permettent de bien prédire les préférences réellement exprimées
par les sujets et que les utilités des modalités de facteurs sont obtenues par
décomposition des scores de préférences, il suffit de comparer l’ordre dérivé
des utilités de chaque combinaison de modalités avec l’ordre fourni par les
préférences. Dans ce sens, le coefficient tau de Kendall ou le rho de
Spearman sont calculés entre les ordres exprimés et les ordres prédits par le
modèle. Ces coefficients donnent une mesure du degré d’association ou de
corrélation entre les ordres dérivés des utilités et les ordres provenant des
préférences exprimées. Comme ils varient entre 0 et 1, plus le coefficient est
proche de 1 et plus les ordres sont associés ou proches.

Dans le cas où les préférences sont fournies de façon ordinale, la validité


des résultats peut être soumise à l’étude du stress [KRU 65]. Dans ce cas, il
s’agit de comparer les utilités réelles d’une part et la mesure la plus
couramment utilisée pour déterminer l’adéquation des résultats du modèle
aux préférences réellement exprimées par les sujets.

17.4.2. Interprétation des résultats

Préalablement à des analyses sur les valeurs agrégées, il est souhaitable


d’examiner les scores des préférences individuelles. Dans ce sens, l’examen
de la distribution des préférences permet de neutraliser les sujets dont la
structure de préférence se traduit par une faible valeur de stress, ce qui
améliore la qualité des analyses subséquentes. Ainsi, des analyses globales
ou agrégées sur l’ensemble des sujets peuvent être aussi effectuées. On peut
donc agréger les ordres de préférences sur l’ensemble des sujets mais à
condition que tous les sujets se comportent de la même façon, ce qui est
généralement loin de la réalité. C’est pourquoi, les analyses individuelles ou
sur des groupes réputés identiques sont préférées aux analyses agrégées.

Dans cette perspective, la détermination de l’importance relative des


facteurs entre eux est pertinente, il faut calculer l’écart entre l’utilité
maximum et l’utilité minimum par facteur. Pour éviter d’engendrer des
utilités extrêmes, il s’agit d’éliminer toutes modalités qui paraissent
L’analyse des mesures conjointes 289

aberrantes. Plus la différence est élevée et plus l’importance du facteur est


forte, il s’agit de la significativité pratique (ou sensibilité au facteur). La
sensibilité du répondant au facteur est d’autant plus forte que l’utilité qu’il
accorde aux différentes modalités est très hétérogène.

17.4.3. Validation des résultats

La validation des résultats peut-être effectuée en utilisant des


combinaisons supplémentaires correspondant à des concepts que les sujets
évaluent au même titre que l’ensemble des autres concepts, mais qui ne
serviront pas à estimer les utilités du modèle. Les paramètres du modèle des
mesures conjointes sont ensuite utilisés pour prédire les préférences de ces
combinaisons supplémentaires qui sont alors comparées aux réponses
fournies par le répondant.

Dans le cas d’une estimation effectuée au niveau agrégé, il est possible


d’utiliser un échantillon de contrôle pour chacun des groupes utilisés afin
d’étudier la précision des prévisions du modèle sur le ou les échantillons de
contrôle. Enfin, une autre méthode suggère la comparaison des valeurs du
stress observées avec celles qui seraient obtenues avec des données tirées au
hasard.

17.5. Un exemple d’application

Si l’on prend une paire de lunette et trois attributs, dont chacun à ses
modalités spécifiques comme le résume le tableau 17.2 ci-dessous :

Prix 100 $ 125 $ 150 $


Couleur Dorée Argentée Titane
Composition Plastique Aluminium

Tableau 17.2. Attributs et niveau de modalités de la lunette

La pertinence de chaque combinaison d’attributs se mesure par l’utilité


totale [U(x)], somme des utilités liées à chaque attribut. Le point de départ
est le classement et l’évaluation des préférences globales par sujet (voir
le tableau 17.3).
290 La conception industrielle de produits 3

Prix Composition Couleur Classement Evaluation


100 Alu Titane 1 18
125 Alu Titane 2 17

Tableau 17.3. Exemple de classement des préférences du répondant A

Il faut trouver les valeurs des utilités partielles qui respectent l’évaluation
du sujet et la reconstituent tel que le montre la figure 17.2.

Prix Couleur Composition


Utilité de 100$ Utilté de titane Uitilté de
Utilité de 120$ Utilité de argent aluminium
Utilité de 150$ Utilité de dorée Utilité de plastique

La fonction d’utilité globale est donc la suivante :

Uij = a1PR1+a2PR2+a3PR3+b1CO1+b2CO2+b3CO3+c1COMP1+c2COMP2
PR1 = 1 si prix 100, = 0 sinon; a1 = utilité partielle de niveau de prix
1(100 $)
PR2 = 1 si prix 125, = 0 sinon; a2 = utilité partielle de niveau de prix
2(125 $)
PR3 = 1 si prix 150, = 0 sinon; a3 = utilité partielle de niveau de prix
3(150 $)
CO1 = 1 Si titane, = 0 sinon ; b1 utilité partielle de niveau de couleur
1(titane)
CO2 = 1 Si argent, = 0 sinon ; b2 utilité partielle de niveau de couleur
2(argent)
CO3 = 1 Si dorée, = 0 sinon ; b3 utilité partielle de niveau de couleur
3(dorée)
COMP1 = 1 si aluminium, = 0 sinon ; c1 utilité partielle de niveau comp
1(alu)
COMP2 = 1 si plastique,= 0 sinon ; c2 utilité partielle de niveau comp
2(plastiq)

Figure 17.2. Classement des utilités


L’analyse des mesures conjointes 291

Après le codage des données, le lancement de la régression linéaire et


les tests de validation statistique réalisés, on obtient la fonction d’utilité
du répondant :

Uij = -0,5+4PR1+2PR2+10,167CO1+6,333CO2+5COMP1 .

La sensibilité aux caractéristiques est égale : (mini –maxi)/total des


écarts. Soit dans notre exemple une sensibilité aux prix de 21 % ; à une
couleur de 53 % et à la composition de 26 %.

Ce qui est fait pour ce répondant peut être fait pour tous les
répondants :
– on calcule les fonctions d’utilité pour chacun,
– on fait une moyenne globale des utilités,
– on peut aussi calculer des utilités par groupes,
– ce qui ouvre la porte à d’autres analyses comme la typologie.

17.6. Mise en perspective de la méthode

Comme nous avons pu le constater précédemment, l’analyse des


mesures conjointes a de nombreux domaines d’application, bien qu’elle
trouve un terrain bien adapté en matière de conception de produit
industriel ou de grande consommation, mais aussi pour la conception de
gamme de produit. Si elle trouve aussi de nombreuses applications en
sciences de gestion et notamment en marketing, elle peut être un bel outil
pour l’analyse des choix stratégiques d’innovations.

Les résultats fournis par l’analyse des mesures conjointes quel que
soit le domaine concerné sont obtenus par un processus lourd car la tâche
d’évaluation est souvent limite pour les sujets, mais néanmoins riche en
résultats. Il faut donc admettre le caractère quasi-expérimental de la
méthode, dont le principal intérêt est sa capacité à matérialiser les
différences individuelles des sujets et sous contrainte d’un nombre limité
d’attributs pris en compte.

L’analyse des mesures conjointes est donc une base solide pour mieux
mesurer les avantages recherchés par les consommateurs, pour faire de
l’optimisation des modalités d’attributs comme par exemple définir le profil
idéal sous une contrainte de coût. Mais aussi, la méthode peut apporter des
292 La conception industrielle de produits 3

modèles de choix permettant de construire des simulateurs pour l’analyse


des réponses concurrentielles.

Comme toute méthode expérimentale, et avec ses limites, elle trouve sa


place dans les outils d’aide à la décision et dans cette perspective, le
chercheur comme l’ingénieur doit, pour son choix, avoir une idée des
possibilités d’autres méthodes concurrentes ou complémentaires liées à
l’évaluations des produits [YAN, 07] pour y découvrir des réponses
théoriques et méthodologiques suscitant les plus grandes curiosités.
BIBLIOGRAPHIE

[AFN 83] AFNOR NF ISO 8586-1, Analyse sensorielle – Guide général pour la
sélection, l’entraînement et le contrôle des sujets – Partie 1 : sujets qualifiés, 1983.
[AFN 84] AFNOR NF ISO 8586-2, Analyse sensorielle – Guide général pour la
sélection, l’entraînement et le contrôle des sujets – Partie 1 : experts, 1984.
[AFN 95] AFNOR NF ISO 11035, Recherche et sélection de descripteurs pour
l’élaboration d’un profil sensoriel par approche multidimensionnelle, p. 271-300,
1995.
[AIP 06] « Evaluation sensorielle et sémantique dans les phases préliminaires du
processus de conception », supports des conférences du thème 3 de l’université
d’automne AIP PRIMECA – Evaluation et décision dans le processus de
conception–, Ecole Centrale Paris, 126 pages, Châtenay-Malabry, 4-6 septembre
2006.
[ALP 71] ALPERT M.I, Identification of determinant attributes: a comparison of
methods, Journal of Marketing Research, vol. 8, p. 184-91, 1971.
[AMR 99] AMRAM M., KULATILAKA N., Real Options: Managing Strategic
Investment in an Uncertain World, Harvard Business School Press, Boston, Etats-
Unis, 1999.
[ANT 95] ANTONSSON E.K., OTTO K.N., « Imprecision in Engineering Design »,
Journal of Mechanical Design, vol. 117, n° B, p. 25-32, 1995.
[AOU 08] AOUES Y., CHATEAUNEUF A., « Reliability-based optimization of
structural systems by adaptive target safety application to RC frames. Structural
Safety », Article in Press, 2008.
294 La conception industrielle de produits 3

[AOU 90] AOUSSAT A., La pertinence en innovation : nécessité d'une approche


plurielle, ENSAM, Paris, 1990.
[BAC 88] BACHELET D., LION J., « Une méthode de l’évaluation de l’importance
des attributs perçus appliquée au développement et au positionnement des nouveaux
produits », Revue Française du Marketing no 119, 1988.
[BAS 69] BASS F. M., « A New Product Growth Model for Consumer Durables »,
Management Science, 15(5), p. 215-227, 1969.
[BEN 07a] BEN AHMED W., YANNOU B., « A bayesian learning of probabilistic
relations between perceptual attributes and technical characteristics of car
dashboards to construct a perceptual evaluation model », International Journal of
Product Development, 2007.
[BEN 07b] BEN AHMED W., YANNOU B., « Supervized Bayesian Models to Carry
Out Kansei Engineering of Car Dashbaords », Proc. IDETC/DAC: ASME
International Design Engineering Technical Conferences & Computers and
Information in Engineering Conferences/Design Automation Conference,
Las Vegas, Etats-Unis, 4-7 septembre 2007.
[BEN 07c] BEN AHMED W., YANNOU B., « Unsupervised Bayesian Models to Carry
out Perceptual Evaluation in a Design Process », Proc. International Conference on
Engineering Design: ICED'07, Cité des Sciences et de l'Industrie, Paris, 28-31août
2007.
[BEN 05] BEN-ARIEH D., « Sensitivity of multi-criteria decision making to linguistic
quantifiers and aggregation means », Computers and industrial engineering, 48,
p. 289-309, 2005.
[BEN 99] BENHAMOU F., GOUALARD F., GRANVILLIERS L., PUGET J.-F., « Revising
Hull and Box Consistency », Procs. of ICLP'99, The MIT Press, Las Cruces, Etats-
Unis, 1999.
[BEN 00] BEN MENA S., « Introduction aux méthodes multicritères d’aide à la
décision », Biotechnol. Agron. Soc. Environ., vol. 4 (2), p. 83-93, 2000.
[BER 88] BERLINER C., BRIMSON J., Cost management for Today’s Advanced
Manufacturing, Harvard Business Press, Boston, 1988.
[BOL 99] BOLLEN N. P. B., « Real Options and Product Life Cycles », Management
Science, 45(5), p. 670-684., 1999.
[BOU 98] BOUJUT J.F., JEANTET A. « Les entités de la coopération dans les
nouvelles organisations de la conception », Performance Humaines et Techniques,
no 96, 1998.
Bibliographie 295

[BRA 03] BRACH M.A., Real Options in Practice, John Wiley & Sons, Inc.,
Hoboken, Etats-Unis, 2003.
[BRA 86] BRANS J.P., MARESCHAL B., VINCKE P., « How to select and how to rank
projects : The PROMETHEE method for MCDM », European Journal of
Operations Research, vol. 24, p. 228-238, 1986.
[BRE 85] BRENNAN M.J., SCHWARTZ E.S., « Evaluating Natural Resource
Investments », Journal of Business, vol. 58, no 2, p. 135-157, 1985.
[BRE 05] BREVIGLIERI PEREIRA DE CASTO E., Méthode d’aide à la conception
architecturale basée sur l’analyse multicritère et sur des données simulées des
comportements des bâtiments, Thèse de doctorat INSA de Lyon et Université
Fédérale de Rio de Janeiro, 2005.
[BRO 97] BROADIE M., GLASSERMAN P., « Pricing American-style Securities Using
Simulation », Journal of Economic Dynamics and Control, vol. 21, p. 1323-1352,
1997.
[BUI 06] BUISINE S., MARTIN J.C., « L’étude de Corpus par Analyse en
Composantes Principales », Proc. WACA'06 second Workshop francophone sur les
agents conversationnels animés, p. 63-71, 2006.
[CAM 06] CAMARGO M., FONTEIX C., MOREL L., « Application of the Choquet
Integral to a Chemical Manufacturing Process », 9th IFAC Symposium on
Automated Systems Based on Human Skill And Knowledge, ASBoHS'06, Nancy, 22-
24 mai 2006.
[CAP 07] CAPTIV, Logiciel de TEA Ergonomie, www.teaergo.com
[CAR 07] CARDIN M. A., DE NEUFVILLE R., DAHLGREN J., Extracting Value from
Uncertainty : Proposed Methodology for Engineering Systems Design, Working
paper, 2007.
[CAR 72] CAROLL J.D., « Individual differences and multidimensional scaling »,
Shepard, Romney, Nerlove, Multidimensional scaling: theory and application in the
behavioral sciences, vol. 1, p. 105-155, 1972.
[CAR 95] CARROLL J.D., GREEN P.E., « Psychometric methods in marketing
research .1. Conjoint Analysis », Journal of Marketing Research, 32(4), p. 385-391,
1995.
[CAT 07] ACTOGRAM-KRONOS, http://www.actogram.net
[CHA 92] CHAKRABARTI A., BLIGH T., HOLDEN T., « Towards a decision-support
framework for the embodiment phase of mechanical design, Artificial Intelligence »,
Engineering, 7 : 21 – 3, 1992.
296 La conception industrielle de produits 3

[CHO 54] CHOQUET G., Theory of capacities, Anna. Inst. Fourier 5, p. 131–295,
1954.
[CHR 96] CHRISTOFOL H., AOUSSAT A., DUCHAMP R., « Analyse de contenu
iconique, un outil de représentation pour le concepteur de la coloration d'un
produit », Design Recherche, no 8, p. 25-34, avril 1996.
[CHR 98] CHRISTOFOL H., « Les métiers de la conception de produits : le
phénomène de la couleur, le coloriste et le processus de conception de la
coloration », PST no 41, Publication Scientifique et Technique de l'Ecole Nationale
Supérieure des Arts et Métiers, 103 pages, Paris, 1998-2003.
[CIH 02] CIHUELO J., « Projet de Conception et Processus Coopératif : les « Petits
Riens » qui rassemblent les métiers », Revue Annuelle des Arts et Métiers, 2002.
[COU 96] COUTAZ J., SALBER D., CARRAUX E., PORTOLAN N., « NEIMO, a multi-
workstation usability lab for observing and analyzing multimodal interaction »,
Proc. CHI'96, p. 402-403, 1996.
[COX 79] COX J.C., ROSS S.A., RUBINSTEIN M., « Option Pricing: A Simplified
Approach », Journal of Financial Economics, vol. 7, p. 229-263, 1979.
[CRO 00] CROCHEMORE S., « Application de la cartographie des préférences au
domaine automobile : la planche de bord », SIA CAF/00-36, Le Mans, 15-16
novembre 2000.
[CRO 03] CROSSLAND R., SIMS W.J.H., MCMAHON C.A., « An object-oriented
modeling framework for representing uncertainty in early variant design, Research »
Engineering Design, vol. 14, p. 173-183, 2003.
[DAH 93] DAHLBÄCK N., JÖNSSON A., AHRENBERG L., « Wizard of Oz studies -
Why and how », Proc. IUI'93, ACM Press, p. 193-200, 1993.
[DAN 91] DANIELLOU F., Ergonomie et neurophysiologie du travail, cours B4
(ergonomie des projets industriels), édition CNAM Paris, 85 pages, 1990-1991.
[DAN 92] DANIELLOU F., Le statut de la pratique et des connaissances dans
l'intervention ergonomique de conception, Thèse d'habilitation, Université de
Toulouse - le Mirail, 100 pages, juin 1992.
[DAR 01] DARSES F., Assister la conception : perspectives pour la psychologie
cognitive ergonomique, projet EIFFEL, cognition et coopération en conception,
2001.
[DAS 98] DAS I., DENNIS J.E., « Normal-Boundary Intersection: A new Method for
Generating the Pareto Surface in Nonlinear Multicriteria Optimization Problems »,
SIAM Journal on Optimization, vol. 8, n° 3, p. 631-657, 1998.
Bibliographie 297

[DAS 97] DASU S., LI L., « Optimal Operating Policies in the Presence of Exchange
Rate Variability », Management Science, vol. 43, no 5, p. 705-722, 1997.
[DAV 88] DAVID H.A., The method of paired comparisons, Oxford University
Press, New York, 1988.
[DAV 88] D’AVIGNON G.R., VINCKE P., « An outranking method under uncertainty »,
E.J.O.R., vol. 36, p. 311-321, 1988.
[DAV 96] D’AVIGNON G.R., SAUVAGEAU M., « L’aide multicritère à la décision : un
cas d’intégration de critères techniques, économiques et environnementaux à Hydro-
Québec », Recherche Opérationnelle/Operations Research, vol. 39, n° 3,
p. 317-332, 1996.
[DEG 80] DE GRAAN J.G., Extensions to the multiple criteria analysis of T. L.
SAATY, Report National Institute of Water Supply, 1980.
[DIV 01] DIVEUX T., SÉBASTIAN P., BERNARD D., PUIGGALI J.R., GRANDIDIER J.Y.,
« Horizontal Axis Wind Turbine Systems: Optimization Using Genetic
Algorithms », Wind Energ., 4 : p. 151-171, 2001.
[DEP 98] DEPLEDT F., Evaluation sensorielle, Manuel méthodologique, Collection
sciences et techniques agro-alimentires, Tech & Doc, Lavoisier, Paris, 1998.
[DIT 96] DITLEVESEN O., MADSEN H., Structural reliability methods, John Wiley &
Sons, 1996.
[DIX 94] DIXIT A.K., PINDYCK R.S., Investment Under Uncertainty, Princeton
University Press, 1994.
[DOR 04] DORE R., Intégration des sensations utilisateur en conception
préliminaire, application au ski et au virage de base, Doctorat de l’ENSAM,
décembre 2004.
[DOR 05] DORE R., PAILHES J., FISCHER X., NADEAU J.-P., « Integration of user’s
requirements in preliminary design : application to parabolic ski in basic turn »,
PLM05, International conference on product lifecycle management, Lyon, 11-13
juillet 2005.
[DOR 07a] DORE R., PAILHES J., FISCHER X., NADEAU J.-P., « Identification of
Design Variables and Criterion Variables towards the integration of User
Requirements into Preliminary Design », Int. J. Product Development, vol. 4,
no 5, p. 508-529, Indersciences édition, Genève, 2007.
298 La conception industrielle de produits 3

[DOR 07b] DORE R., PAILHES J., FISCHER X., NADEAU J.-P., « Identification of
Sensory Variables towards the integration of User Requirements into Preliminary
Design », International Journal of Industrial Ergonomics, vol. 37, Issue 1,
p. 1-11, Elsevier, janvier 2007.
[DUB 86] DUBOIS D., PRADE H., « Weighted minimum and maximum operations in
fuzzy set theory », Information Sciences, 39, p. 205-210, 1986.
[DUB 01] DUBOIS D., PRADE H., SABBADIN R., « Decision-theoretic foundations of
qualitative possibility theory », European Journal of Operational research, 128,
p. 459-478, 2001.
[ECR 97] ECRIN, Evaluation subjective : méthodes, applications et enjeux. Les
cahiers du club CRIN, 1997.
[ENE 94a] ENEVOLDSEN I., « Reliability-based optimization as an information
tool », Mech. Struct. & Mach, 22 : p. 117-135, 1994.
[ENE 94b] ENEVOLDSEN I., SØRENSEN J.D., « Reliability-based optimization in
structural engineering », Structural Safety, 15: p.169-196, 1994.
[ENS 07a] ENS « Governors Push for Clean Energy Laws, Investments »,
http://www.ens-newswire.com/ens/apr2007/2007-04-10-09.asp#anchor1, 2007.
[ENS 07b] ENS « Vermont Squares Off Against Automakers on CO2 Emissions »,
http://www.ens-newswire.com/ens/apr2007/2007-04-10-09.asp#anchor1, 2007.
[EVA 98] Evaluation sensorielle, manuel méthodologique, 2è édition, Tech & Doc,
Lavoisier, collection Sciences et Techniques agro-alimentaires, 1998.
[EVI 02] EVIN F., SIEKIERSKI E., « Sensory evaluation of heating and air
conditioning system », Energy and Buildings 34, p. 647-651, 2002.
[FER 04] FERGUSON S., LEWIS K., « Effective Development of Flexible Systems in
Multidisciplinary Optimization », Proc. 10th AIAA/USAF/NASA/ISSMO Symposium
on Multidisciplinary Analysis and Optimization, AIAA-2004-4309, 2004.
[FIL 86] FILLACIER J., La pratique de la couleur, Dunod, Paris, 1986.
[FOW 95] FOWLKES W.Y., CREVELING C.M., Engineering Methods for Robust
Product Design: Using Taguchi Methods in Technology and Product Development,
Addison-Wesley publisher, Hardcover format, 1995.
[FRA 95] FRANGOPOL D.M., « Reliability-based optimum structural design »,
Probabilistic structural mechanics handbook, edited by C. Raj Sundararajan,
Chapman Hall, Etats-unis, p. 352-387, 1995.
Bibliographie 299

[FRA 03] FRANGOPOL D.M., MAUTE K., « Life-cycle reliability-based optimization


of civil and aerospace structures », Computers & Structures, 81, p. 397-410, 2003.
[FU 95] FU M.C., HU J.Q., « Sensitivity Analysis for Monte Carlo Simulation of
Option Pricing », Probability in the Engineering and Informational Sciences, vol. 9,
p. 417-466, 1995.
[GEL 04] GELDERMANN J., RENTZ O., « Multi-criteria analysis for the assessment of
environmentally relevant installations », Journal of Industrial Ecology, p. 1-30,
2004.
[GIB 01] GIBOREAU A., NAVARRO S., FAYE P., DUMORTIER J., « Sensory evaluation
of automotive fabrics : the contribution of categorisation tasks and non verbal
information to set-up a descriptive method of tactile properties », Food Quality and
Preference 12, p. 311-322, 2001.
[GIG 98] GIGET M., « La nécessité d’une offre créative », La dynamique stratégique
de l’entreprise, Dunod, 1998.
[GOU 99] GOUPY J., Plans d'expériences pour surfaces de réponse, Dunod, Paris,
1999.
[GRA 96] GRABISCH M., « The application of fuzzy integrals in multicriteria
decision making », European Journal of Operational Research, 89, p. 445-456,
1996.
[GRA 97] GRABISCH M., « Evaluation subjective – Méthodes, applications et
enjeux », Les cahiers des clubs CRIN, no 1, 1997.
[GRA 02] GRABISCH M., DUCHENE J., LINO F., PERNY P., « Subjective evaluation of
discomfort in sitting position », Fuzzy Optimization and Decision Making, vol. 1,
no 3, p. 287-312, 2002.
[GRE 99] GRECO S., MATARAZZO B., SLOWINSKI R., « Rough Sets approximation of
a preference relation by dominance relations », European Journal of Operational
Research, n° 117, p. 63-83, 1999.
[GRE 01] GRECO S., MATARAZZO B., SLOWINSKI R., « Rough Sets theory for
multicriteria decision analysis », European Journal of Operational Research,
vol. 129, n° 1, p. 1-47, 2001.
[GRE 02] GRECO S., MATARAZZO B., SLOWINSKI R., « Rough Sets methodology for
sorting problems in presence of multiple attributes and criteria », European Journal
of Operational Research, vol. 138, n° 2, p. 247-259, 2002.
[GRE 75] GREEN P.E., WIND Y.J., « New way to measure consumer’s judgements »,
Harvard Business Review, 53, 4, p. 107-117, 1975.
300 La conception industrielle de produits 3

[GRE 90] GREEN P.E., SRINIVASAN V., « Conjoint Analysis in Marketing : New
developments with Implications for research and Practise », Journal of Marketing,
54, p. 3-19, 1990.
[GUE 03] GUENAND A., MARTIN LOPEZ J., ZALILA Z., « Application of Expertons
Theory in the sensory analysis of cell phone flaps », Congrès Qualita, Nancy, mars
2003.
[GUE 03] GUENAND A., MARTIN LOPEZ J., « Study on subjective evaluation of
perceived quality of flap mobile phones and prediction of sensorial profile »,
International conference on engineering design, Iced 03 Stockholm, Suède, 19-21
août 2003.
[GUE 03] GUENAND A., CAPELL ZAPATA F., « A reference system of Semantic
Characterisation of products », Tsukuba, Japon, 14-17 octobre 2003.
[GUE 04] GUENAND A., LAMROUS S., ROUGON G., « Semio : semiological tool for
the design of industrial products : analysis based on ontologies », Bath, Grande-
Bretagne, 5-7 avril 2004.
[GUE 05] GUENAND A., MARTIN LOPEZ J., ZALILA Z., « Application of Expertons
Theory in the sensory analysis of cell phone flaps », Revue Quality Engineering,
volume 5, octobre-décembre 2005.
[GUI 98] GUITOUNI A., MARTEL J.M., « Tentative guidelines to help choosing an
appropriate MCDA method », European Journal of Operational Research, 109,
p. 501-521, 1998.
[HAJ 05] HAJJI O., Optimisation de configurations de véhicules (Renault) -
Utilisation conjointe d’une méthode d’aide à la décision multicritère, d’optimisation
mono-objectif et de programmation par contraintes, Mémoire de Master Recherche
Génie Industriel (Innovation-Conception-Ingénierie), Ecole Centrale Paris, 2005.
[HAJ 07] HAJJI O., YANNOU B., BAGLIN-SCHUHLER N., « Optimization of a Vehicle
Mix under Environmental and Economical Constraints », Proc. International
Conference on Engineering Design : ICED'07, Cité des Sciences et de l'Industrie,
Paris, 28-31 août 2007.
[HAP 98] HAPKE M., JASZKIEWICZ A., SLOWINSKI R., « Interactive analysis of
multiple-criteria project scheduling problems », European Journal of Operational
Research, vol. 107, n° 2, p. 315-324, 1998.
[HAR 05] HARVEY A., « Application of an integrated method to a study of the
consumer perceptions of automobile dashboards », Research Internship report,
Ecole Centrale Paris, université de Bath, 2005.
Bibliographie 301

[HAS 74] HASOFER A.M., LIND N.C., An Exact and Invariant First Order
Reliability Format, J. Eng. Mech., ASCE, 100, EM1:11-121, 1974.
[HAS 06] HASSAN R., DE NEUFVILLE R., Design of Engineering Systems under
Uncertainty via Real Options and Heuristic Optimization, Working paper, 2006.
[HOD 93] HODDER J.E., TRIANTIS A.J., Valuing flexibility: an impulse control
framework. Annals of Operations Research, vol. 45, p. 109-130, 1993
[HSI 98] HSIAO S.W., WANG H.P., « Applying the semantic transformation method
to product form design », Design Studies 19, p. 309-330, 1998.
[HUC 96] HUCHZERMEIER A., COHEN M.A., « Valuing Operational Flexibility under
Exchange Rate Risk », Operations Research, vol. 44, no 1, p. 100-113, 1996.
[HUG 99] HUGGET A., SÉBASTIAN P., NADEAU J.P., « Global Optimization of a
Dryer by using Neural Networks and Genetic Algorithms », AIChE Journal, 45:
p. 1227-1238, 1999.
[HUL 03] HULL J. C., Options, Futures, and Other Derivatives, 5è édition, Prentice
Hall, Etats-Unis, 2003.
[INR 01] INRS - Anact, Repères sur le travail, à l’usage des ingénieurs, élèves et
débutants, 161 pages, 2001.
[ISM 02] ISMAIL-YAHAYA A., MESSAC A., « Effective Generation of the Pareto
Frontier using the Normal Constraint Method », Proc. AIAA 40th Aerospace
Sciences Meeting and Exhibit, 2002.
[ISO 99] ISO13407, Human-centred design processes for interactive systems,
International Organization for Standardization, 1999.
[JAC 82] JACQUET-LAGREZE E., SISKOS J., « Assessing a Set of Additive Utility
Functions for Multicriteria Decision-Making, the UTA Method », E.J.O.R., vol.10,
2, p. 151-164, 1982.
[JAM 99] JAMBU M., Méthode de base de l’analyse des données, collection
technique et scientifique des télécommunications, Eyrolles, 419 pages, Paris, 1999.
[KAY 84] KAYS W., LONDON A., Compact Heat Exchangers, Mc Graw-hill book
company, 1984.
[KEE 76] KEENEY R.L., RAIFFA H., Decisions with multiple objectives : Preferences
and value tradeoffs, John Wiley and Sons, 597 pages, New York, 1976.
302 La conception industrielle de produits 3

[KHA 02] KHARMANDA G., MOHAMED A., LEMAIRE M., « CAROD: Computer-
Aided Reliable and Optimal Design as a concurrent system for real structures ».
Journal of Computer Aided Design and Computer Aided Manufacturing
CAD/CAM,1(1) : p. 1-12, 2002.
[KOG 94] KOGUT B., KULATILAKA N., « Operating Flexibility, Global
Manufacturing, and the Option Value of a Multinational Network », Management
Science, vol. 40, no 1, p. 123-139, 1994.
[KRI 04] KRIEGER A.M., GREEN P.E., WIND Y.J., Adventures in Conjoint Analysis:
A practitioner’s Guide to Trade-off Modeling and Application, Philadelphie,
Wharton School of Business, disponible en ligne (http://www-
arketing.wharton.upenn.edu/people/faculty/green-monograph.htlm), 2004.
[KRI 02] KRISHNAN V., BHATTACHARYA S., « Technology Selection and
Commitment in New Product Development : The Role of Uncertainty and Design
Flexibility », Management Science, vol. 48, no 3, p. 313-327, 2002.
[KRU 65] KRUSKAL J.B., « Analysis of factorial experiments by estimating
monotone. transformation of the data », Journal of the Royal Statistical Society,
1965.
[LAU 02] LAURENCIN J-P., « Economie de la Conception Participative : enjeux de
Management et d'Organisation », AS conception participative, MSH-Alpes,
24 pages, Grenoble, 2002.
[LEB 04] LEBART L., MORINEAU A., PIRON M., Statistique exploratoire
multidimensionnelle, Dunod, Sciences Sup, 2004.
[LEE 04] LEE I., JOO-HEON C.J., KIM J., PARK M., « Synthesis of Mechanical
Structures Using a Genetic Algorithm, Lecture Notes », Computer Science,
Springer-Verlag, 3044/2004 : p. 573 – 582, 2004.
[LEM 05] LEMAIRE M., en collaboration avec CHATEAUNEUF A., et MITTEAU
J.C., Fiabilité des structures, Hermès, Paris, 2005.
[LEV 06] LEVRAT E., RENAUD J., FONTEIX C., « A comparison of decision maker
compromise between two classification approaches based on OWA operators.
Industrial application », 9th IFAC ASBoHS’06 symposium, Nancy, 22-24 mai 2006.
[LIM 02] LIMAYEM F., YANNOU B., « Handling Imprecision in Pairwise Comparison
- For Better Group Decisions in Weighting », Integrated Design and Manufacturing
in Mechanical Engineering, CHEDMAIL P., COGNET G., FORTIN C., MASCLE C.,
PEGNA J. Editors, Kluwer Academic Publishers, Dordrecht/Boston/Londres, 2002.
Bibliographie 303

[LIM 04] LIMAYEM F., YANNOU B., « Generalization of the RCGM and LSLR
Pairwise Comparison Methods », Computers and Mathematics with Applications
vol. 48, p. 539-548, 2004.
[LIM 07] LIMAYEM F., YANNOU B., « Selective assessment of judgemental
inconsistencies in pairwise comparisons for group decision rating », Computers &
Operations Research, vol. 34, n° 6, p. 1824-1841, juin 2007.
[LOO 82] LOOTSMA F.A., « Performance evaluation of nonlinear optimization
methods via multi-criteria decision analysis and via linear model analysis »,
Nonlinear Optimization, POWELL M.J.D. Editor, Academic Press, Londres, vol. 1,
p. 419-453, 1982.
[LUC 64] LUCE R.D., TUKEY J.W., « Simultaneous conjoint measurement: A new
type of foundamental measurement », Journal of Mathematical Psychology, 1,
p. 1-27, 1964.
[MAH 91] MAHAJAN V., WIND J., New Product Models, Marketing Science Inst,
1991.
[MAL 94] MALINE J., Simuler le travail, une aide à la conduite de projet, édition de
l'ANACT, collection outils et méthodes, 156 pages, 1994.
[MAL 02] MALLARD A., Les instruments dans la coordination de l'action».
Pratiques techniques, métrologie, instruments scientifiques, Thèse de doctorat, Ecole
Nationale Supérieure des Mines de Paris, Centre de sociologie de l'innovation, Paris,
1996.
[MAN 97] MANGIN J.C., Aide à la décision et choix multicritère : problématique
modélisation des préférences méthodes et exemples, cours école supérieure
d’ingénieurs de Chambéry – université de Savoie, 1997.
[MAN 02] MANGUN D., THURSTON D., « Incorporating Component Reuse,
Remanufacture, and Recycle into Product Portfolio Design », IEEE Transactions
on Engineering Management, vol. 49, no 4, p. 479-490, 2002.
[MAN 06] MANTELET F., Prise en compte de la perception émotionnelle du
consommateur dans le processus de conception de produits, Thèse ENSAM Paris
sous la direction de Améziane Aoussat et Carole Bouchard, 2006.
[MAT 04] MATHIEU J.P., « L’analyse lexicale par contexte : un bel outil pour la
recherche exploratoire en marketing », Décision Marketing, 34, p. 67-77, 2004.
[MAX 04] MAXANT O., La collaboration interdisciplinaire et la contextualisation
par l’usage dans la création et l’évaluation amont d’offres innovantes : application
au domaine de l’énergie domestique, Thèse de doctorat, ENSAM, 2004.
304 La conception industrielle de produits 3

[MEI 99] MEILGARD M., CIVILE G.V., CARR B.T., Sensory evaluation techniques,
CRC Press, 1999.
[MES 96] MESSAC A., GUPTA S., AKBULUT B., « Linear Physical Programming : A
New Approach to Multiple Objective Optimization », Transactions on Operational
Research, vol. 8, p. 39-59, 1996.
[MES 03] MESSAC A., ISMAIL-YAHAYA A., MATTSON C.A., « The Normalized
Normal Constraint Method for Generating the Pareto Frontier », Structural and
Multidisciplinary Optimization - Journal of the International Society of Structural
and Multidisciplinary Optimization (ISSMO) volume 25, n° 2, p. 86-98, 2003.
[MIN 03] MINEL S., Démarche de conception collaborative et proposition d’outils
de transfert de données métier, Thèse de doctorat, ENSAM, 2003.
[MOL 91] MOLES A., « Pour un néo-fonctionnalisme, –Prométhée éclairé II,
Éthique, technique et responsabilité professionnelle en design– », Informel,
volume 4, no 1, p. 28-35, hiver 1991.
[MOO 79] MOORE R.E., Methods and Applications of Interval Analysis. SIAM
Studies in Applied Mathematics, SIAM, Philadelphie, 1979.
[MOR 07a] MOREL L., CAMARGO M., FONTEIX C., « Application d’un Index
d’évaluation global basé sur l’intégrale de Choquet pour la conception des produits
dans l’industrie chimique », 11ème Congrès de la Société Française de Génie des
Procédés, Saint-Etienne, 9-11octobre 2007.
[MOR 07b] MOREL L., CAMARGO M., FONTEIX C., « Integrating Product Innovation
Degree and Technological Strategy. Use of Constrained multi-criteria optimisation
for a Polymerisation Process », 11ème Congrès de la Société Française de Génie
des Procédés, Saint-Etienne, 9-11octobre 2007.
[MOR 04] MORRIS A.S., ISO 14000 Environmental Management Standards:
Engineering and Financial Aspects, Wiley, New York, 2004.
[MOS 97] MOSES F., « Problems and prospects of reliability based optimization »,
Engineering Structures 19(4) : p. 293-301, 1997.
[MUN 06] MUN J., Real Options Analysis: Tools and Techniques for Valuing
Strategic Investments and Decisions, 2è édition, John Wiley & Sons, 2006.
[MUS 06] MUSSO P., PONTHOU L., SEUILLET E., Fabriquer le futur – L’imaginaire
au service de l’innovation–, Village Mondial, Pearson Education France, 232 pages,
Paris, 2005.
Bibliographie 305

[NAD 06] NADEAU JP., PAILHES J., « Intégration de l’innovation et des sensations
utilisateur en conception préliminaire par le biais de l’analyse fonctionnelle »,
Ingénierie de la conception et cycle de vie du produit, chapitre 2, Traité IC2, Hermès
Science Lavoisier, 2006.
[NEM 00] NEMBHARD H.B., SHI L., PARK C.S., « Real Option Models for
Managing Manufacturing System Changes in the New Economy », The
Engineering Economist, vol. 45, no 3, p. 232-258, 2000.
[NEM 02] NEMBHARD H.B., SHI L., AKTAN M., « A Real Options Design for
Quality Control Charts », The Engineering Economist, vol. 47, no 1, p. 28-59,
2002.
[NEM 03] NEMBHARD H.B., SHI L., AKTAN M., « A Real Options Design for
Product Outsourcing », The Engineering Economist, vol. 48, no 3, p. 199-217,
2003.
[NEM 05a] NEMBHARD H. B., SHI L., AKTAN M., « A Real Options Based
Analysis for Supply Chain Decisions », IIE Transactions (special issue on
Financial Engineering), 37, 10, 945-956, 2005.
[NEM 05b] NEMBHARD D.A., NEMBHARD H.B., QIN R., « A Real Options Model
for Workforce Cross Training », The Engineering Economist, 50, 2, p. 95-116,
2005.
[OPP 95] OPPEWAL H., « A review of Conjoint Software », Journal of retailing and
consumer services, 2, p. 55-56, 1995.
[OSG 57] OSGOOD C.E., SUCI G.J., TANNENBAUM P.H., The measurement of
meaning, Urbana: University of Illinois Press, 1957.
[OVI 92] OVIATT S.L., COHEN P.R., FONG M.W., FRANK M.P., « A rapid semi-
automatic simulation technique for investigating interactive speech and
handwriting », Proc. ICSLP'92, p. 1351-1354, 1992.
[PAE 76] PAELINCK J.H.P., « Qualitative multiple criteria analysis, environmental
protection and multiregional development », Fifteenth European Congress of the
Regional Science Association, vol.36, p. 59-73, 1976.
[PAH 03] PAHL G., BEITZ W., Engineering design. A systematic approach, Springer,
Londres, Grande-Bretagne, 2003.
[PAT 05] PATOUILLARD Y., Mémoire de MRICI, Prise en compte de la perception
émotionnelle du consommateur en conception de produits, Application à une table
de bar, Mémoire encadré par Fabrice Mantelet et Carole Bouchard, 2005.
306 La conception industrielle de produits 3

[PAW 82] PAWLAK Z., « Rough Sets », Informational Journal of Information and
Computer Sciences, 11, 5, p. 341-356, 1982.
[PAW 94] PAWLAK Z., SLOWINSKI R., Rough Set approach to multi-attribute
decision analysis, European Journal Operational Research, 72, 3, p. 443-459, 1994.
[PET 04] PETIOT J-F., Conception intégrée orienté client : processus, méthodes et
outils, Mémoire d’habilitation à diriger les recherches, Ecole Centrale de Nantes,
2004.
[PET 04] PETIOT J-F., YANNOU B., « Measuring consumer perceptions for a better
comprehension, specification and assessment of product semantics », International
Journal of Industrial Ergonomics, volume 33, Issue 6, p. 507-525 , juin 2004.
[PIL 99] PILLET M., Introduction aux plans d'expériences par la méthode Taguchi,
Edition d’Organisation, 1999.
[POI 05] POIRSON E., Prise en compte des perceptions de l'utilisateur en conception
de produit. Application aux instruments de musique de type cuivre, Thèse Centrale
Nantes sous la direction de Jean-François Petiot, 2005.
[POM 97] POMIAN J.L., PRADERE T., GAILLARD I., Ingénierie et Ergonomie, édition
Cépaduès, 260 pages, Toulouse, 1997.
[PULL 00] PULLMAN M.E., DODSON K.J., MOORE W., « A comparison of conjoint
methods when there are many attributes », Marketing Letters, 10, p. 1-14, 2000.
[QUA 94] QUARANTE D., Eléments de design industriel, 1994.
[RAC 01] RACKWITZ R., « Reliability analysis, overview and some perspectives »,
Structural Safety 23 : p. 366-395, 2001.
[REN 03] RENAUD J., FOURNIER F., THIEBAULT J., LANOUETTE R., ZARAS,
FONTEIX C., «Decision making by Rough Sets applied to chemical and biochemical
multicriteria process optimisation», p. 241- 245, 8th IFAC Symposium Automated
Systems Based on Human Skill and Knowledge, Göteborg, Suède, 22-24, 2003.
[ROU 82] ROUBENS M., « Preference relations on actions and criteria in
multicriteria decision making », European Journal of Operational Research, vol. 10,
p. 51-55, 1982.
[ROU 99] ROUCOULES L., Méthodes et connaissances : contribution au
développement d’un environnement de conception intégrée, Thèse de doctorat de
l’INPG, 1999.
Bibliographie 307

[ROU 04] ROUSSARIE V., « Perceptive qualification of engine sound character ;


Validation of auditory attributes using analysis-synthesis method », Congrès
Français d’Acoustique, CFADAGA’04, Strasbourg, 2004.
[ROU 96] ROUSSEL B., Proposition d’une méthode centrée sur la formulation de
principe de solution dans le processus interdisciplinaire de conception de produits,
Thèse ENSAM, 1996.
[ROY 68] ROY B., « Classement et choix en présence de points de vue multiples
(la méthode Electre) », Revue Française d’Informatique et de Recherche
Opérationnelle, vol. 1, n° 2, p. 57-75, 1968.
[ROY 71] ROY B., BERTIER P., La méthode Electre II (une méthode de classement
en présence de critères multiples), Note de travail 142, Direction Scientifique
SEMA, 25 pages, Paris, 1971.
[ROY 77] ROY B., MOSCAROLA J., « Procédure automatique d’examen de dossiers
fondée sur une segmentation trichotomique en présence de critères multiples »,
RAIRO Recherche Opérationnelle, vol. 11, n° 2, p. 145-173, mai 1977.
[ROY 78] ROY B., « Electre III : un algorithme de classements fondé sur une
représentation floue des préférences en présence de critères multiples », Cahiers du
Centre d’Etudes de R.O., 20(1), p. 3-24, 1978.
[ROY 82] ROY B., HUGONNARD J.C., « Classement des prolongements de lignes de
métro en banlieue parisienne (présentation d’une méthode multicritère originale) »,
Cahiers du C.E.R.O., vol. 24, n° 2-3-4, 1982.
[ROY 84] ROY B., SKALKA J.M., « Electre Is aspects méthodologiques et guide
d’utilisation », Document 30, Lamsade, 119 pages, 1984.
[SAA 80] SAATY T.L., The Analytic Hierarchy Process, McGraw-Hill, Inc., 1980.
[SAA 02] SAATY T.L., « Decision-making with the AHP: Why is the principal
eigenvector necessary », European Journal of Operational Research, 2002.
[SAV 00] SAVRANSKY S.D., Engineering of creativity, Introduction to TRIZ
methodology of inventive problem solving, CRC Press, Boca Raton, Etats-Unis,
2000.
[SCA 04] SCARAVETTI D., Formulation préalable d'un problème de conception, pour
l'aide à la décision en conception préliminaire, Thèse de doctorat, ENSAM,
Bordeaux, 2004.
[SCA 05] SCARAVETTI D., NADEAU J.P., PAILHES J., SÉBASTIAN P., « Structuring of
embodiment design problem based on the product lifecycle », International Journal
of Product Development, vol. 2, n° 1-2, p. 47–70, Inderscience, Genève, 2005.
308 La conception industrielle de produits 3

[SCA 06] SCARAVETTI D., SÉBASTIAN P., NADEAU J.P., « Structuration d’un
problème de conception préliminaire, formulation et résolution par satisfaction de
contraintes », Ingénierie de la conception et cycle de vie du produit, chapitre 7,
Traité IC2, Hermès Science Lavoisier, 2006.
[SCA 06a] SCARAVETTI D., PAILHES P., NADEAU J.P., « Expression de la pertinence
de la conception, pour l'aide à la décision en conception préliminaire », Evaluation
et décision dans le processus de conception (chapitre 3), YANNOU B., BONJOUR E.,
Hermès Science Lavoisier, p. 53-68, 2006.
[SCA 06b] SCARAVETTI D., SÉBASTIAN P., PAILHES J., NADEAU J.P., « Exploring
design spaces in the search for embodiment design solutions for various life cycle
stages, and decision support », Proc. Computational Engineering in Systems
Applications (CESA'06), Pékin, Chine, octobre 2006.
[SCH 01] SCHWARTZ E. S., TRIGEORGIS L. Editors, Real Options and Investment
under Uncertainty: Classical readings and Recent Contributions, The MIT Press,
Cambridge, Etats-Unis, 2001.
[SCO 00] SCOTT M.J., ANTONSSON E.K., « Using Indifference Points in Engineering
Decisions », Proc. ASME/DETC2000/DTM, Baltimore, Etats-Unis, 10-13 septembre
2000.
[SEB 04] SÉBASTIAN P., NADEAU J.P., ASO S., « Numeric-CSP for air conditioning
in aeronautics », 8th World Multi-Conference on Systemics, Cybernetics and
Informatics, SCI 2004, Orlando, Etats-Unis, 2004.
[SEL 07] Société d’Ergonomie de Langue Francçaise (SELF), www.ergonomie-
self.org; International Ergonomics Association (IEA), www.iea.cc
[SEP 02] SEPPALA J., BASSON L., NORRIS G.A., « Decision analysis frameworks for
life-cycle impact assessment », Journal of Industrial Ecology, vol. 5, n° 4,
p. 45-68, 2002.
[SIE 00] SIEFFERMANN J.-M., « Le profil flash – un outil rapide et innovant
d’évaluation sensorielle descriptive », Agoral, Douzièmes rencontres, L’innovation :
de l’idée au succès, p. 335–340, Montpellier, 2000.
[SUG 74] SUGENO M., Theory of fuzzy integrals and its applications, Thèse de
Ph.D., Tokyo Institute of Technology, Tokyo, 1974.
[SUH 01] SUH N., Axiomatic Design: Advances and Applications, Oxford
University Press, New York, 2001.
[SUS 98] SUSINI P., MISDARIIS N., WINSBERG S., MCADAMS S., « Caractérisation
perceptive de bruits », Acoustique et Technique, (13), p. 11-15, 1998.
Bibliographie 309

[STU 04] STUMP G., YUKISH M.A., MARTIN J.D., SIMPSON T.W., « The ARL Trade
Space Visualizer: An Engineering Decision-Making Tool », American Institute of
Aeronautics and Astronautics, 2004.
[THE 97] THEUREAU J., Le cours d’Action, Méthode élémentaire, collection travail
et activité humaine, Octares édition, Toulouse, 384 pages, 1997.
[THO 96] THORNTON A., « The Use of Constraint-based Design Knowledge to
Improve the Search for Feasible Designs », Engineering Application of Artificial
Intelligence, 9: p. 393-402, 1996.
[TIC 96] TICHKIEWITCH S., TIGER H., JEANTET A., VINCK D., « La coordination par
les objets dans les équipes intégrées de conception de produit », Coopération et
Conception, Octares édition, p. 87-100, 1996.
[TRA 01] URDAPILLETA I., TON NU C., SAINT DENIS C., DE KERMANDEC F.H.,
Traité d’évaluation sensorielle – Aspect cognitifs et métrologiques des perceptions,
Dunod, Paris, 2001.
[TRI 90] TRIANTIS A.J., HODDER J.E., « Valuing Flexibility as a Complex
Option », Journal of Finance, vol. 45, no 2, p. 549-565, 1990.
[TRI 99] TRIGEORGIS L., Real Options: Managerial Flexibility and Strategy in
Resource Allocation, The MIT Press, Cambridge, Etats-Unis, 1999.
[TVE 67] TVERSKY A., « A general theory of polynomial conjoint measurement »,
Journal of Mathematical Psychology, 4, p. 1-2, 1967.
[ULL 95] ULLMAN D.G., D’AMBROSIO B., « Taxonomy for Classifying Engineering
Decision Problems and Support Systems, Artificial Intelligence for Engineering
Design », Analysis and Manufacturing, vol. 9, p. 427-438, 1995.
[ULL 03] ULLMAN D.G., The mechanical design process, 3è édition, McGraw-Hill
Higher Education, New York, 2003.
[VAL 05] VALLETTE T., Proposition d’un cadre conceptuel d’aide à la conception
collective innovante par l’usage, Thèse de doctorat, ENSAM, 2005.
[VAL 94] VALETTE FLORENCE P., Les styles de vie, bilan critique et perspectives,
Connaître et pratiquer la gestion, Nathan, 1994.
[VAN 06] VANSNICK J.C., L’approche, MACBETH, MOSIM’06, Rabat, Maroc,
2006.
[VER 04] VERNAT Y., Formalisation et qualification de modèles par contraintes en
conception préliminaire, Thèse de doctorat, ENSAM, Bordeaux, 2004.
310 La conception industrielle de produits 3

[WIT 89] WITTING C., CATTIN B., « Commercial of Conjoint Analysis: an Update »,
Journal of Marketing, 53, p. 91-9, 1989.
[WOO 89] WOOD K.L., ANTONSSON E.K., BECK J.L., « Computations with
imprecise parameters in engineering design: background and theory », ASME
Journal of Mechanisms, Transmissions and Automation in Design, n° mars, p. 616-
624, 1989.
[YAG 88] YAGER R.R., « On ordered weighted averaging aggregation operators in
multi-criteria decision making, IEEE Transactions on Systems », Man and
Cybernetics, vol. 18, p. 183-190, 1988.
[YAN 04] YANNOU B., HAMDI A., « Truss dimensioning with an uncertainty
reduction paradigm », Proc. International Design Conference, Dubrovnik, Croatie,
18-20 mai 2004.
[YAN 05a] YANNOU B., HARMEL G., « Use of Constraint Programming for
Design », Advances in Design, ElMaraghy H., ElMaraghy W. Editors, Springer,
chapitre 12, 2005.
[YAN 05b] YANNOU B., MORENO F., THÉVENOT H., SIMPSON T.W., « Faster
Generation of Feasible Design Points », Proc. DETC/DAC: ASME Design
Engineering Technical Conferences/Design Automation Conference,
DETC2005/8544, Long Beach, Etats-Unis, 25-28 septembre 2005.
[YAN 07a] YANNOU B., COATANEA E., « Easy and flexible specifications and
product evaluations by expert and customer comparisons with existing products »,
Proc. International Conference on Engineering Design: ICED'07, Cité des Sciences
et de l'Industrie, Paris, 28-31 août 2007.
[YAN 07b] YANNOU B., COATANEA E., « The COMPARE method for easy and fast
specification and design selection by product pairwise comparisons », Proc.
CPI'2007: Conception et Production Intégrées, Rabat, Maroc, 22-24 octobre 2007.
[YU 92] YU W., « Electre Tri, aspects méthodologiques et guide d’utilisation »,
Document 74, Lamsade, 80 pages, 1992.
[ZHO 06] ZHOU B., Analyse des évaluations sensorielles des produits industriels par
des techniques de calcul avancées en vue de la caractérisation des comportements
des consommateurs, Thèse de PhD, Université Lille 1, 2006.
INDEX

A Analyse fiabiliste
état limite de défaillance, 178
Action état limite sûr, 178
américaine, 257 probabilité de défaillance, 173
européenne, 257 Analyse
Activité réelle, 48 fonctionnelle, 31
Actualisation des flux de trésorerie, 261 sémantique, 36, 62, 63
Agrégation complète, 203 sensorielle, 37
Aide à la décision multicritère, 196 Approximations basses et hautes, 273
Analyse Attribut
d’activité, 35, 51 sémantique, 245
de fiabilité, 173
de l’activité, 49
en composantes principales, 248
B
fonction de performance, 174 Bloc diagramme fonctionnel, 38
indice de fiabilité, 177
mesures conjointes, 198, 282
multicritère, 196 C
perceptuelle, 244 Chaînage
point caractéristique, 177 micro pcognitif, 34
point de défaillance, 177 valeurs-fonctions-attributs, 34
point moyen, 177 Choix
variables aléatoires, 173 de concept, 243
Analyse de robustesse, 163 Choquet
fonctions dérivables, 164 intégrale, 212
rapport signal sur bruit, 169 Collecte des données
systèmes complexes, approche mesures conjointes, 285
Taguchi, 164 Comparaisons par paires, 246
Analyse COMPARE, 243, 245
des phénomènes physiques, 38 Conception, 210, 213
des usages, 58 architecturale, 149
en composantes principales, 56
312 La conception industrielle de produits 3

problème combinatoire, 151 Evaluation


fiable, 171 de concept, 251
coefficients de sécurité, 171, 181 en conception, 28
optimisation fiabiliste, 172, 183 marketing, 31
propagation des incertitudes, 171 subjective, 29
robuste, 163 Exemple
sous incertitudes, 131, 186 mesures conjointes, 289
Consommateur, 244 Expert, 244

D F
Décideur, 195, 239 Flexibilité, 256
Décision Flux d’énergie, 38, 103
financière, 255 Fonction
Dépendance d’estime, 243
attributs, 275 de préférence dans Prométhée, 229
de satisfaction, 253
d'utilité, 204
E Frontière de Pareto, 141
Electre, 197, 219 exemple, 159
Electre 1v, 223 méthodes de génération, 143
Electre 2, 223 parcours de la frontière, 144
Electre 3, 224
Electre 4, 226 G
Electre Is, 223
Electre TRI, 228 Gaia, 219
Electre1, 222 Gestion des compromis, 141, 160
Ensembles approximatifs, 198 Grille sémantique, 63, 64, 66
Ergonomie, 43, 45
démarche d', 46
Ergonomique
H
intervention, 46, 48 Harmonie, 33
Espace
perceptif, 243
Espace de conception, 119 I
conception contrainte, conception Incertitude, 255
faisable, 139 Incomparabilité, 219
exploration, 122, 134 Indépendance
paramères de conception, 134 attributs, 275
paramètre de conception, sensibilité, Indice de concordance, 220, 224
variabilité, tolérance, 163, 166 Indice de discordance, 225
performances, 134 Innovation, 44
réduction, 151, 157 Intégrale
résolution, 122 Choquet, 212, 214
Esthétique floue, 197, 210, 211
industrielle, 27 Interface multimodale, 52, 54
Estimation des utilités
mesures conjointes, 287
Index 313

L Problématique
de choix, 221
Logiciels de rangement, 223
d'aide à la décision, 201 de tri, 227
Processus de conception
phases préliminaires, 28
M Processus de décision, 196
MACBETH, 205 Produits Parent/Enfant, 47
Matrice Programmation par contraintes, 136
de comparaisons, 246, 251 branchemet et élagage, 137
MAUT, 203 cohérence, 136
Mesures conjointes, 281, 282 démarche de synthèse, 138
Méta-modèles, modèles approximés, 119 exemple de pré-dimensionnement, 149
Méthode filtrage, 136
Electre, 221 séparation de domaines, 136
UTA, 204 solveur CSP, 150, 151, 155
Micro psychologie, 34 Prométhée, 197, 219, 228
Micro-actes, 34 cas industriel, 231
Micro-décisions, 34 Prométhée 1, 229
Modèles approximés, méta-modèles, 121, Prométhée 2, 230
122, 186
cas linéaire, 127, 175 Q
cas non linéaires, 175
cas quadratique, 128 Qualiflex, 219, 230
critères de validation, 129 Quantificateurs linguistiques, 209
critères d'évaluation, 125, 126
Modèles approximés, méta-modélisation
construction de méta-modèles, 123
R
identification, 124 Reconception, 253
Moyenne pondérée ordonnée, 197, 206, Relation
210 de surclassement,197, 227
d'indiscernabilité, 273
O Robustesse
décisionnelle, 199
Opérateurs d’agrégation, 206, 207, 210, multicritère, 199
211 procédurale, 199
Options financières, 197 Rough Sets, 198, 271
Options réelles, 197, 255
définition, 257
Oreste, 219, 231
S
OWA, 197, 203, 206, 208 Score, 246, 251
Sémiologie, 62
P Simulation de Monte Carlo, 139, 175
Situation de référence, 47
Paramètres de conception, 121 SMART, 205
Planches de bord, 244 Somme pondérée, 205
Plans d’expériences, 124, 125, 128, 167 Spécification, 243
Préférences du décideur, 197 génération, 249
314 La conception industrielle de produits 3

Surclassement, 196, 219 U


dans l'incertain, 231
Système de conditionnement d'air, 149 Usage, 35, 45, 58
Usages
échelle d'observation des, 59
T UTA, 204
Théorie Utilisabilité, 45
de l’option financière, 258 Utilisateur
de l’utilité multi-attribut, 196 conception centrée, 43
des ensembles approximatifs, 198 Utilité, 204
des options réelles, 255, 256, 257, 269
des Rough Sets, 271, 272, 274, 275 V
TRIZ
théorie, 38 Valeur actuelle nette, 263
Variabilité, 49, 119
inter-individuelle, 49
Volatilité, 264
SOMMAIRE DU VOLUME 1

Introduction générale. La conception industrielle de produits

Introduction au volume 1. Management des hommes, des projets et


des informations

PREMIÈRE PARTIE. L’INDIVIDU ET LE GROUPE

Chapitre 1. L’homme au cœur de l’entreprise

Chapitre 2. Leadership et apprentissage organisationnel pour un


groupe performant et innovant
2.1. Introduction
2.2. Le milieu de la conception : un milieu spécifique ?
2.3. Choix d’un modèle de leadership pour mener l’innovation
2.4. Le stade de développement du groupe
2.5. Application à la prise de décision collective
2.6. La conception : une culture spécifique ?
2.7. Conclusion

Chapitre 3. Structure et instrumentation du processus de conception


versus rationalité de la décision
3.1. Introduction
3.2. Organisations en conception et prises de décision
3.3. Apports et limites des groupes pluriculturels à la rationalité
316 La conception industrielle de produits 3

de la décision en conception de produits complexes


3.4. Le rôle des représentations intermédiaires dans les prises
de décisions individuelles et collectives en conception
3.5. Faire prendre du recul aux acteurs multidisciplinaires par le jeu
3.6. Le serious play : le cas de la re-conception d’un siège de bureau
3.7. Conclusion

DEUXIÈME PARTIE. LE MANAGEMENT DE PROJET

Chapitre 4. Le projet, mode de conception de produit


4.1. Définir le mot « projet »
4.2. Cycle de vie d’un projet

Chapitre 5. Expression des besoins du client : étude de cas, le projet


masque sourire®
5.1. Les premières investigations
5.2. Etablissement du plan d’action
5.3. La démarche fonctionnelle
5.4. La recherche d’idées et l’évaluation de solutions nouvelles
5.5. Le projet avec ses impulsions et perturbations

Chapitre 6. Structuration des moyens du projet


6.1. Introduction
6.2. Les acteurs du projet
6.3. Structurer les tâches
6.4. Evaluer les tâches
6.5. Ordonnancer les tâches
6.6. Représenter graphiquement les tâches
6.7. Notion de délai optimal
6.8. Quelques erreurs classiques
6.9. Cycle de vie et structuration du projet
6.10. Une démarche pédagogique de structuration des moyens
du projet
6.11. Conclusion
Sommaire du volume 1 317

Chapitre 7. Pilotage de projet


7.1. Importance du pilotage en phase de réalisation
7.2. Les deux niveaux de management de projet
7.3. Evolution des dépenses d’un projet
7.4. Gérer le recrutement de collaborateurs
7.5. Gérer l’avancement des travaux
7.6. Gérer le turn-over
7.7. Gérer les incidents
7.8. Gérer les évolutions des besoins
7.9. Gérer la sous-traitance
7.10. Gérer les livraisons
7.11. Gérer la communication
7.12. Le pilotage agile
7.13. Rôle du chef de projet

Chapitre 8. Management d’un portefeuille de projets innovants


8.1. Le projet, l'entreprise et le multi-projets
8.2. Les différents modes de management multi-projets
8.3. Principes généraux du management multi-projets
8.4. Les instruments du MMP
8.5. Conclusions et perspectives de développement

Chapitre 9. Du management de projet au management de l’innovation


9.1. Etude de cas 1 : remanier une planification de projet erronée
9.2. Etude de cas 2 : multi-projets

TROISIÈME PARTIE. LES SYSTEMES D’INFORMATION

Chapitre 10. Les systèmes d’information, supports de la conception


de produit
10.1. Introduction
10.2. Définitions
10.3. Supporter la prise de décision
318 La conception industrielle de produits 3

Chapitre 11. Systèmes d’information pour la prise de décision


11.1. Les systèmes d’aide au travail collectif
11.2. Les systèmes d’information pour la conception
11.3. Limites et évolutions

Chapitre 12. Capitalisation des connaissances


12.1. Capitalisation des connaissances
12.2. Synthèse

Chapitre 13. Traçabilité


13.1. Traçabilité des connaissances
13.2. Apprentissage automatique de connaissances
13.3. Conclusion

Chapitre 14.Une démarche de mise en œuvre de systèmes d’information


pour la conception de produit
14.1. Modélisation par ajustements de points de vue : la méthode VIM
14.2. Application dans le cadre du projet USIQUIK
14.3. Synthèse

Bibliographie

Index
SOMMAIRE DU VOLUME 2

Introduction générale

Introduction au volume 2

PREMIÈRE PARTIE. Etude et conduite de la conception : de la nécessité


d’évaluer pour décider

Chapitre 1. Etude et conduite de la conception : de la nécessité d’évaluer


pour décider
1.1. Introduction
1.2. Problématique de l’évaluation de la performance en conception
1.3. Modèle et méthodologie pour l’évaluation des performances
en conception
1.4. Exploitation du modèle d’évaluation
1.5. Conclusion

Chapitre 2. La simulation comme outil d’évaluation de scénarios


de développement en entreprise
2.1. Introduction
2.2. La simulation comme outil d’évaluation des performances en entreprise
2.3. Présentation de notre approche de simulation en entreprise
320 La conception industrielle de produits 3

2.4. Application à une modélisation de développement d’entreprise


2.5. Conclusion

DEUXIÈME PARTIE. Evaluation des performances du produit

Chapitre 3. Evaluation environnementale des produits


3.1. L’évaluation environnementale des produits
3.2. Une première approche de l’analyse du cycle de vie des produits
3.3. Conclusion

Chapitre 4. Décision technico-économique en conception de produit


4.1. Définitions préalables
4.2.-Place de l’estimation technico-économique dans la conception
de produit
4.3. Méthodes d’estimation du coût en conception de produit
4.4. L’estimation technico-économique pour le choix en conception

TROISIÈME PARTIE. Spécifications et déploiement

Chapitre 5. Diversité industrielle de déploiement des projets de conception


5.1. Introduction
5.2. Structuration du développement industriel chez L’Oréal
5.3. Le déploiement d’un projet de conception chez Bourjois
5.4. Principes du cycle en V
5.5. Le déploiement d’un projet de conception d’avion chez Airbus
5.6. Le déploiement d’un projet de conception moteur chez Snecma
5.7. Le déploiement d’un projet de conception de carte électronique chez
Johnson Controls
5.8. Le déploiement des prestations d’un véhicule automobile chez
PSA Peugot-Citroën
5.9. Conclusion

Chapitre 6. Modélisation des processus de conception


6.1. Introduction
6.2. Connaissances et objets intermédiaires en conception
6.3. Démarches de conception et modèles de processus
Sommaire du volume 2 321

Chapitre 7. Déploiement des spécifications pour la conception


de systèmes mécatroniques
7.1. Introduction : contexte industriel et identification de la problématique
actuelle
7.2. La modélisation de l’information en vue d’une capitalisation et d’une
réutilisation des solutions de conception
7.3. Un cadre pour le déploiement des spécifications basé sur une
modélisation multiple des informations : modèle de partage, modèles
métier, et modèles d’interface
7.4. Les outils numériques d’aide à la conception

Chapitre 8. Conception des systèmes de production automatisés dirigée


par les modèles
8.1. Introduction
8.2. L’approche MDA (Model Driven Architecture)
8.3. Le langage UML
8.4. Notion de composant dans les systèmes de production automatisés
8.5. Travaux dirigés. Etapes de spécification UML sur un système
automatisé
8.6. Correction

Bibliographie

Index

View publication stats

Vous aimerez peut-être aussi