Vous êtes sur la page 1sur 16

CHAPITRE 1

Le rôle des
Statistiques en
Ingénierie

patineur de Philadelphie/Getty Images


OBJECTIFS D'APPRENTISSAGE SOMMAIRE

1.1 La méthode d'ingénierie et la


Après une étude attentive de ce chapitre, vous devriez être en mesure de faire ce
pensée statistique
qui suit :
1.1.1 Variabilité
1. Identifier le rôle que les statistiques peuvent jouer dans le processus de
1.1.2 Populations et échantillons
résolution de problèmes d'ingénierie
1.2 Collecte de données d'ingénierie
2. Discuter de la façon dont la variabilité affecte les données collectées et utilisées pour

prendre des décisions d'ingénierie 1.2.1 Principes de base

3. Expliquer la différence entre les études énumératives et 1.2.2Étude rétrospective


analytiques 1.2.3Étude observationnelle

4. Discuter des différentes méthodes utilisées par les ingénieurs pour collecter des données 1.2.4Expériences conçues
1.2.5 Observer les processus au fil du temps
5. Identifier les avantages des expériences conçues par rapport à
1.3Modèles mécanistes et empiriques
d'autres méthodes de collecte de données d'ingénierie
1.4Probabilités et modèles de probabilité
6. Expliquer les différences entre les modèles mécanistes et les
modèles empiriques

7. Discuter de la façon dont les probabilités et les modèles de probabilité sont utilisés

en ingénierie et en science

1
2CHAPITRE 1 Le rôle des statistiques en ingénierie

Statistiquesest une science qui nous aide à prendre des décisions et à tirer des conclusions en présence de
variabilité. Par exemple, les ingénieurs civils travaillant dans le domaine des transports s'inquiètent de la capacité
des réseaux routiers régionaux. Un problème typique lié au transport impliquerait des données concernant le
nombre de déplacements non professionnels à domicile de ce système spécifique, le nombre de personnes par
ménage et le nombre de véhicules par ménage. L'objectif serait de produire un modèle de génération de
déplacements reliant les déplacements au nombre de personnes par ménage et au nombre de véhicules par
ménage. Une technique statistique appeléeanalyse de régressionpeut être utilisé pour construire ce modèle. Le
modèle de génération de déplacements est un outil important pour la planification des systèmes de transport. Les
méthodes de régression font partie des techniques statistiques les plus utilisées en ingénierie. Ils sont présentés
dans les chapitres 11 et 12.
Le service des urgences de l'hôpital (ED) est une partie importante du système de prestation de soins de santé.
Le processus par lequel les patients arrivent à l'urgence est très variable et peut dépendre de l'heure de la journée et
du jour de la semaine, ainsi que de variations cycliques à plus long terme. Le processus de service est également très
variable, selon les types de services dont les patients ont besoin, le nombre de patients à l'urgence et la façon dont
l'urgence est dotée en personnel et organisée. La capacité d'un ED est également limitée ; par conséquent, certains
patients connaissent de longs délais d'attente. Combien de temps les patients attendent-ils en moyenne ? C'est une
question importante pour les prestataires de soins de santé. Si les délais d'attente deviennent excessifs, certains
patients partiront sans traitement (LWOT). Les patients qui LWOT ne voient pas leurs préoccupations médicales
traitées et sont à risque d'autres problèmes et complications. Par conséquent, une autre question importante est :
quelle proportion de patients LWOT de l'ED ? Ces questions peuvent être résolues en utilisant des modèles de
probabilité pour décrire l'ED, et à partir de ces modèles, des estimations très précises des temps d'attente et du
nombre de patients qui LWOT peuvent être obtenus. Les modèles de probabilité qui peuvent être utilisés pour
résoudre ces types de problèmes sont abordés dans les chapitres 2 à 5.

Les concepts de probabilité et de statistique sont puissants et contribuent largement aux


solutions de nombreux types de problèmes d'ingénierie. Vous rencontrez de nombreux exemples de
ces applications dans ce livre.

1.1 La méthode d'ingénierie


et la pensée statistique
Un ingénieur est quelqu'un qui résout des problèmes d'intérêt pour la société par l'application efficace de
principes scientifiques. Les ingénieurs y parviennent soit en affinant un produit ou un processus existant,
soit en concevant un nouveau produit ou processus qui répond aux besoins des clients. Leingénierie, ou
scientifique,méthodeest l'approche pour formuler et résoudre ces problèmes. Les étapes de la méthode
d'ingénierie sont les suivantes :

1. Développez une description claire et concise du problème.

2. Identifiez, au moins provisoirement, les facteurs importants qui affectent ce problème ou qui peuvent jouer un

rôle dans sa solution.

3. Proposer un modèle du problème, en utilisant les connaissances scientifiques ou techniques du


phénomène étudié. Énoncez les limites ou les hypothèses du modèle.

4. Menez des expériences appropriées et collectez des données pour tester ou valider le modèle provisoire ou les

conclusions tirées aux étapes 2 et 3.

5. Affiner le modèle sur la base des données observées.

6. Manipuler le modèle pour aider à développer une solution au problème.


Traduit de Anglais vers Français - www.onlinedoctranslator.com

1.1 La méthode d'ingénierie et la pensée statistique3

Développer une Identifiez le Proposer ou Manipuler Confirmer conclusion


clair important affiner un le le et
description facteurs modèle modèle solution recommandations

Conduire
expériences

FIGURE 1.1 La méthode d'ingénierie.

7. Mener une expérience appropriée pour confirmer que la solution proposée au problème est à la
fois efficace et efficiente.

8. Tirer des conclusions ou faire des recommandations basées sur la solution du problème.

Les étapes de la méthode d'ingénierie sont illustrées à la figure 1.1. De nombreuses sciences de l'ingénieur
emploient la méthode du génie : les sciences mécaniques (statique, dynamique), la science des fluides, la
thermique, l'électricité et la science des matériaux. Notez que la méthode d'ingénierie présente une forte
interaction entre le problème, les facteurs qui peuvent influencer sa solution, un modèle du phénomène et
l'expérimentation pour vérifier l'adéquation du modèle et la solution proposée au problème. Étapes 2 à 4 de
la figure 1.1 sont encadrés, indiquant que plusieurs cycles ou itérations de ces étapes peuvent être
nécessaires pour obtenir la solution finale. Par conséquent, les ingénieurs doivent savoir comment planifier
efficacement des expériences, collecter des données, analyser et interpréter les données et comprendre
comment les données observées se rapportent au modèle qu'ils ont proposé pour le problème à l'étude.

Le domaine destatistiquestraite de la collecte, de la présentation, de l'analyse et de l'utilisation des données pour prendre des

décisions, résoudre des problèmes et concevoir des produits et des processus. En termes simples,la statistique est la science des

données. Étant donné que de nombreux aspects de la pratique de l'ingénierie impliquent de travailler avec des données, il est évident

que la connaissance des statistiques est tout aussi importante pour un ingénieur que le sont les autres sciences de l'ingénieur. Plus
précisément, les techniques statistiques peuvent être des aides puissantes dans la conception de nouveaux produits et systèmes,

l'amélioration des conceptions existantes et la conception, le développement et l'amélioration des processus de production.

1.1.1 Variabilité
Des méthodes statistiques sont utilisées pour nous aider à décrire et à comprendrevariabilité. Par variabilité, nous
entendons que les observations successives d'un système ou d'un phénomène ne produisent pas exactement le
même résultat. Nous rencontrons tous des variations dans notre vie quotidienne, etpensée statistiquepeut nous
donner un moyen utile d'intégrer cette variabilité dans nos processus décisionnels. Par exemple, considérez la
performance de consommation d'essence de votre voiture. Obtenez-vous toujours exactement les mêmes
performances kilométriques sur chaque plein de carburant ? Bien sûr que non, en fait, parfois les performances
kilométriques varient considérablement. Cette variabilité observée dans la consommation d'essence dépend de
nombreux facteurs, tels que le type de conduite le plus récent (ville ou autoroute), les changements dans l'état du
véhicule au fil du temps (qui peuvent inclure des facteurs tels que le gonflage des pneus, la compression du moteur
ou usure des soupapes), la marque et/ou l'indice d'octane de l'essence utilisée, ou encore éventuellement les
conditions climatiques rencontrées récemment. Ces facteurs représentent un potentielsources de variabilitédans le
système. Les statistiques fournissent un cadre pour décrire cette variabilité et pour savoir quelles sources
potentielles de variabilité sont les plus importantes ou qui ont le plus grand impact sur les performances de
consommation d'essence.
4CHAPITRE 1 Le rôle des statistiques en ingénierie

L'exemple suivant illustre comment nous rencontrons la variabilité dans le traitement des problèmes
d'ingénierie.

EXEMPLE 1.1Variabilité de la force de traction est trop faible, le connecteur peut tomber en panne lorsqu'il est installé
dans un moteur. Huit unités prototypes sont produites et leurs forces
Supposons qu'un ingénieur conçoive un connecteur en nylon à utiliser
d'arrachement mesurées, ce qui donne les données suivantes (en
dans une application de moteur automobile. L'ingénieur envisage
livres) : 12,6, 12,9, 13,4, 12,3, 13,6, 13,5, 12,6, 13,1. Comme nous l'avions
d'établir la spécification de conception sur l'épaisseur de paroi à
prévu, tous les prototypes n'ont pas la même force de traction. On dit
3/32 pouces mais est quelque peu incertain quant à l'effet de cette
qu'il y a variabilité dans les mesures de force d'arrachement.
décision sur la force d'arrachement du connecteur. Si la force
d'arrachement

Étant donné que les mesures de la force d'arrachement présentent une variabilité, nous considérons que la force
d'arrachement est une Variable aléatoire. Une façon pratique de penser à une variable aléatoire, disonsX, qui représente une
mesure est en utilisant le modèle

X= μ + ϵ (1.1)

où μ est une constante et ϵ est une perturbation aléatoire. La constante reste la même à chaque mesure,
mais de petits changements dans l'environnement, des écarts dans l'équipement de test, des différences
dans les pièces individuelles elles-mêmes, etc. modifient la valeur de ϵ. S'il n'y avait pas de perturbations, ϵ
serait toujours égal à zéro etXserait toujours égal à la constante μ. Cependant, cela ne se produit jamais dans
le monde réel, donc les mesures réellesXprésentent une variabilité. Nous devons souvent décrire, quantifier
et finalement réduire la variabilité.
Figure 1.2 présente une diagramme de points de ces données. Le diagramme de points est un graphique très utile pour
afficher un petit ensemble de données, par exemple jusqu'à environ 20 observations. Ce graphique nous permet de voir
facilement deux caractéristiques des données : laemplacement, ou le milieu, et ledispersionouvariabilité. Lorsque le
nombre d'observations est faible, il est généralement difficile d'identifier des modèles spécifiques de variabilité, bien que le
diagramme de points soit un moyen pratique de voir les caractéristiques inhabituelles des données.
La nécessité d'une réflexion statistique apparaît souvent dans la résolution de problèmes d'ingénierie.
Considérez l'ingénieur qui conçoit le connecteur. Après avoir testé les prototypes, il sait que la force de traction
moyenne est de 13,0 livres. Cependant, il pense que cela peut être trop faible pour l'application prévue, il décide
donc d'envisager une conception alternative avec une paroi plus épaisse, 1/8 pouces d'épaisseur. Huit prototypes
de cette conception sont construits et les mesures de force de traction observées sont de 12,9, 13,7, 12,8, 13,9, 14,2,
13,2, 13,5 et 13,1. La moyenne est de 13,4. Les résultats pour les deux échantillons sont tracés sous forme de
diagrammes de points dans la figure 1.3. Cet affichage donne l'impression que l'augmentation de l'épaisseur de
paroi a conduit à une augmentation de la force d'arrachement. Cependant, il y a des questions évidentes à se poser.
Par exemple, comment savons-nous qu'un autre échantillon de prototypes ne donnera pas des résultats différents ?
Un échantillon de huit prototypes est-il suffisant pour donner des résultats fiables ? Si nous utilisons les résultats des
tests obtenus jusqu'à présent pour conclure que l'augmentation de l'épaisseur de paroi augmente la résistance,
quels risques sont associés à cette décision ? Par exemple, est-il possible que l'augmentation apparente de la force
de traction observée dans les prototypes plus épais soit due uniquement à la variabilité inhérente au système et que
l'augmentation de l'épaisseur de la pièce (et de son coût) n'ait vraiment aucun effet sur la traction -hors force?

= 3 pouce
12 13 14 15 32
=1
Force d'arrachement
12 13 14 15 8
pouce

Force d'arrachement
FIGURE 1.2
FIGURE 1.3
Diagramme de points des données de force d'arrachement

lorsque l'épaisseur de paroi est de 3∕32 pouces. Diagramme à points de la force d'arrachement pour deux épaisseurs de paroi.
1.2 Collecte des données d'ingénierie5

1.1.2 Populations et échantillons


Souvent, les lois physiques (telles que la loi d'Ohm et la loi des gaz parfaits) sont appliquées pour aider à concevoir
des produits et des processus. Nous connaissons ce raisonnement des lois générales aux cas particuliers. Mais il est
également important de raisonner à partir d'un ensemble de mesures spécifiques vers des cas plus généraux pour
répondre aux questions précédentes. Ce raisonnement vient d'ungoûter(tels que les huit connecteurs) à un
population(tels que les connecteurs qui seront dans les produits vendus aux clients). Le raisonnement est appelé
inférence statistique. Voir Figure 1.4. Historiquement, les mesures étaient obtenues à partir d'un échantillon de
personnes et généralisées à une population, et la terminologie est restée. De toute évidence, un raisonnement basé
sur des mesures de certains objets à des mesures sur tous les objets peut entraîner des erreurs (appeléeserreurs
d'échantillonnage). Cependant, si l'échantillon est sélectionné correctement, ces risques peuvent être quantifiés et
une taille d'échantillon appropriée peut être déterminée.

1.2 Collecte de données d'ingénierie


1.2.1 Principes de base
Dans la sous-section précédente, nous avons illustré quelques méthodes simples pour résumer les données. Parfois,
les données sont toutes les observations de la population. Cela se traduit par unerecensement. Cependant, dans
l'environnement d'ingénierie, les données sont presque toujours ungoûterqui a été sélectionné parmi la population.
Trois méthodes de base de collecte de données sont

• UNÉtude rétrospectiveà l'aide de données historiques


• Unétude observationnelle
• UNexpérience conçue

Une procédure efficace de collecte de données peut grandement simplifier l'analyse et conduire à une meilleure
compréhension de la population ou du processus étudié. Examinons maintenant quelques exemples de ces
méthodes de collecte de données.

1.2.2 Étude rétrospective


Montgomery, Peck et Vining (2012) décrivent une colonne de distillation d'acétone-alcool butylique pour laquelle la
concentration d'acétone dans le distillat (le flux de produit de sortie) est une variable importante. Les facteurs qui
peuvent affecter le distillat sont la température de rebouillage, la température du condensat et le taux de reflux. Le
personnel de production obtient et archive les enregistrements suivants :

• La concentration d'acétone dans un échantillon d'essai horaire de produit de sortie

• Le journal de température de rebouillage, qui est un enregistrement de la température de rebouillage au fil du temps

• Le journal du régulateur de température du condenseur

• Le taux de reflux nominal chaque heure

Physique
Population
lois

Inférence statistique
Types de
raisonnement

Produit
Goûter FIGURE 1.4
conceptions

L'inférence statistique est un type de raisonnement.


6CHAPITRE 1 Le rôle des statistiques en ingénierie

Le taux de reflux doit être maintenu constant pour ce processus. Par conséquent, le personnel de production
le change très rarement.
Une étude rétrospective utiliserait la totalité ou un échantillon des données de processus historiques
archivées sur une certaine période de temps. L'objectif de l'étude pourrait être de découvrir les relations
entre les deux températures et le taux de reflux sur la concentration d'acétone dans le flux de produit de
sortie. Cependant, ce type d'étude pose quelques problèmes :

1. Nous ne pourrons peut-être pas voir la relation entre le taux de reflux et la concentration d'acétone car le
taux de reflux n'a pas beaucoup changé au cours de la période historique.
2. Les données archivées sur les deux températures (qui sont enregistrées quasi en continu) ne correspondent pas
parfaitement aux mesures de concentration en acétone (qui sont faites toutes les heures).
Il n'est peut-être pas évident de construire une correspondance approximative.

3. La production maintient les deux températures aussi près que possible des cibles ou points de consigne
souhaités. Parce que les températures changent si peu, il peut être difficile d'évaluer leur impact réel sur la
concentration d'acétone.

4. Dans les plages étroites à l'intérieur desquelles elles varient, la température du condensat a tendance à augmenter avec

la température de rebouillage. Par conséquent, les effets de ces deux variables de processus sur la concentration
d'acétone peuvent être difficiles à séparer.

Comme vous pouvez le voir, une étude rétrospective peut impliquer une quantité importante dedonnées, mais ces données
peuvent contenir relativement peu de données utilesinformationau sujet du problème. De plus, certaines des données
pertinentes peuvent être manquantes, il peut y avoir des erreurs de transcription ou d'enregistrement entraînant desvaleurs
aberrantes (ou des valeurs inhabituelles), ou des données sur d'autres facteurs importants peuvent ne pas avoir été
collectées et archivées. Dans la colonne de distillation, par exemple, les concentrations spécifiques d'alcool butylique et
d'acétone dans le flux d'alimentation en entrée sont des facteurs très importants, mais ils ne sont pas archivés car les
concentrations sont trop difficiles à obtenir en routine. En raison de ces types de problèmes, l'analyse statistique des données
historiques identifie parfois des phénomènes intéressants, mais des explications solides et fiables de ces phénomènes sont
souvent difficiles à obtenir.

1.2.3 Étude observationnelle


Dans une étude observationnelle, l'ingénieur observe le processus ou la population en la perturbant le moins
possible et enregistre les quantités d'intérêt. Étant donné que ces études sont généralement menées sur une
période de temps relativement courte, il est parfois possible d'inclure des variables qui ne sont pas mesurées
systématiquement. Dans la colonne de distillation, l'ingénieur concevrait un formulaire pour enregistrer les deux
températures et le taux de reflux lors des mesures de concentration d'acétone. Il peut même être possible de
mesurer les concentrations du flux d'alimentation d'entrée afin que l'impact de ce facteur puisse être étudié.
Généralement, une étude observationnelle tend à résoudre les problèmes 1 et 2 et contribue grandement à
l'obtention de données précises et fiables. Cependant, les études observationnelles peuvent ne pas aider à résoudre
les problèmes 3 et 4 .

1.2.4 Expériences conçues


Dans une expérience conçue, l'ingénieur faitvolontaireouchangements délibérésdans les variables
contrôlables du système ou du processus, observe les données de sortie du système résultantes, puis fait
une inférence ou une décision sur les variables responsables des changements observés dans les
performances de sortie. L'exemple de connecteur en nylon de la section 1.1 illustre une expérience conçue ;
c'est-à-dire qu'une modification délibérée a été apportée à l'épaisseur de paroi du connecteur dans le but de
découvrir si une force de traction plus forte pouvait être obtenue ou non. Des expériences conçues avec des
principes de base tels querandomisationsont nécessaires pour établircause et effetdes relations.
Une grande partie de ce que nous savons dans le domaine des sciences de l'ingénieur et des sciences physico-chimiques est développée par

des tests ou des expérimentations. Souvent, les ingénieurs travaillent dans des domaines problématiques où aucun scientifique
1.2 Collecte des données d'ingénierie7

ou la théorie de l'ingénierie est directement ou complètement applicable, de sorte que l'expérimentation et


l'observation des données résultantes constituent le seul moyen de résoudre le problème. Même lorsqu'il existe une
bonne théorie scientifique sous-jacente sur laquelle nous pouvons nous appuyer pour expliquer les phénomènes
d'intérêt, il est presque toujours nécessaire d'effectuer des tests ou des expériences pour confirmer que la théorie
est effectivement opérationnelle dans la situation ou l'environnement dans lequel elle est appliquée. . La pensée
statistique et les méthodes statistiques jouent un rôle important dans la planification, la conduite et l'analyse des
données des expériences d'ingénierie. Les expériences conçues jouent un rôle très important dans la conception et
le développement de l'ingénierie et dans l'amélioration des procédés de fabrication.
Par exemple, considérons le problème impliquant le choix de l'épaisseur de paroi pour le connecteur en nylon.
Ceci est une illustration simple d'une expérience conçue. L'ingénieur a choisi deux épaisseurs de paroi pour le
connecteur et a effectué une série de tests pour obtenir des mesures de force d'arrachement à chaque épaisseur de
paroi. Dans ce simpleexpérience comparative, l'ingénieur est intéressé à déterminer s'il y a une différence entre les
3∕32- et 1∕Conceptions de 8 pouces. Une approche qui pourrait être utilisée dans l'analyse des données de cette
expérience consiste à comparer la force d'arrachement moyenne pour les 3∕Conception de 32 pouces à la force de
traction moyenne pour le 1∕Conception de 8 pouces utilisant des statistiques tests d'hypothèses, qui est discuté en
détail dans les chapitres 9 et 10. Généralement, unhypothèse est une déclaration sur un aspect du système qui nous
intéresse. Par exemple, l'ingénieur peut vouloir savoir si la force d'arrachement moyenne d'un 3∕La conception de 32
pouces dépasse la charge maximale typique attendue dans cette application, disons 12,75 livres. Ainsi, nous serions
intéressés à tester l'hypothèse selon laquelle la force moyenne dépasse 12,75 livres. Cela s'appelle unproblème de
test d'hypothèse à échantillon unique. Le chapitre 9 présente des techniques pour ce type de problème.
Alternativement, l'ingénieur pourrait être intéressé à tester l'hypothèse selon laquelle l'augmentation de l'épaisseur
de paroi de 3∕32 contre 1∕8 pouces entraîne une augmentation de la force de traction moyenne. C'est un exemple de
problème de test d'hypothèse à deux échantillons. Les problèmes de test d'hypothèses à deux échantillons sont
abordés au chapitre 10.

Les expériences conçues offrent une approche très puissante pour étudier des systèmes complexes, tels que la
colonne de distillation. Ce processus a trois facteurs - les deux températures et le taux de reflux - et nous voulons
étudier l'effet de ces trois facteurs sur la concentration d'acétone en sortie. Une bonne conception expérimentale
pour ce problème doit garantir que nous pouvons séparer les effets des trois facteurs sur la concentration
d'acétone. Les valeurs spécifiées des trois facteurs utilisés dans l'expérience sont appeléesniveaux de facteurs. En
règle générale, nous utilisons un petit nombre de niveaux, tels que deux ou trois, pour chaque facteur. Pour le
problème de la colonne de distillation, supposons que nous utilisions deux niveaux, "haut" et "bas" (notés +1 et -1,
respectivement), pour chacun des trois facteurs. Une stratégie de conception d'expérience très raisonnable utilise
toutes les combinaisons possibles des niveaux de facteur pour former une expérience de base avec huit paramètres
différents pour le processus. Ce type d'expérience s'appelle unexpérience factorielle. Voir le tableau 1.1 pour ce
plan expérimental.

TABLEAU 1.1 L'expérience conçue (conception factorielle) pour la colonne de distillation

Reboil Temp. Condensate Temp. Taux de reflux

−1 −1 −1
+1 −1 −1
−1 +1 −1
+1 +1 −1
−1 −1 +1
+1 −1 +1
−1 +1 +1
+1 +1 +1
8CHAPITRE 1 Le rôle des statistiques en ingénierie

+1 +1

Taux de reflux
-1 -1
FIGURE 1.5
-1 +1
Le plan factoriel de la colonne de distillation. Température de rebouillir

Figure 1.5 illustre que cette conception forme un cube en termes de ces niveaux haut et bas. À chaque réglage
des conditions de traitement, nous laissons la colonne atteindre l'équilibre, prélevons un échantillon du flux de
produit et déterminons la concentration d'acétone. Nous pouvons alors tirer des conclusions spécifiques sur l'effet
de ces facteurs. Une telle approche nous permet d'étudier de manière proactive une population ou un processus.

Un avantage important des expériences factorielles est qu'elles permettent de détecter une interactionentre
les facteurs. Ne considérez que les deux facteurs de température dans l'expérience de distillation. Supposons que la
concentration de réponse est faible lorsque la température de rebouillage estfaible, quelle que soit la température
du condensat. C'est-à-dire que la température du condensat n'a aucun effet lorsque la température de rebouillage
estfaible. Cependant, lorsque la température de rebouillage esthaut, unhautla température du condensat génère
une bonne réponse, mais unefaiblela température du condensat génère une mauvaise réponse. C'est-à-dire que la
température du condensat modifie la réponse lorsque la température de rebouillage esthaut. L'effet de la
température du condensat dépend du réglage de la température de rebouillage, et on dit que ces deux facteurs
interagissent dans ce cas. Si les quatre combinaisons dehautetfaible les températures de rebouillage et de
condensat n'ont pas été testées, une telle interaction ne serait pas détectée.
Nous pouvons facilement étendre la stratégie factorielle à plus de facteurs. Supposons que l'ingénieur veuille
considérer un quatrième facteur, le type de colonne de distillation. Il en existe deux types : le modèle standard et un modèle
plus récent. Figure 1.6 illustre comment les quatre facteurs (température de rebouillage, température de condensat, taux de
reflux et conception de la colonne) pourraient être étudiés dans une conception factorielle. Parce que les quatre facteurs sont
toujours à deux niveaux, la conception expérimentale peut toujours être représentée géométriquement comme un cube (en
fait, c'est unhypercube). Notez que comme dans tout plan factoriel, toutes les combinaisons possibles des quatre facteurs
sont testées. L'expérience nécessite 16 essais.
Généralement, s'il y akfacteurs et chacun a deux niveaux, un plan expérimental factoriel nécessitera 2kcourt.
Par exemple, aveck=4, le 24conception de la figure 1.6 nécessite 16 tests. De toute évidence, à mesure que le nombre
de facteurs augmente, le nombre d'essais requis dans une expérience factorielle augmente rapidement ; par
exemple, huit facteurs chacun à deux niveaux nécessiteraient 256 essais. Cela devient rapidement irréalisable du
point de vue du temps et des autres ressources. Heureusement, avec quatre à cinq facteurs ou plus, il n'est
généralement pas nécessaire de tester toutes les combinaisons possibles de niveaux de facteurs. UNexpérience
factorielle fractionnaireest une variante de l'arrangement factoriel de base dans lequel seul un sous-ensemble des
combinaisons de facteurs est réellement testé. Figure 1.7 montre un plan expérimental factoriel fractionnaire pour la
colonne de distillation. Les combinaisons de tests encerclées dans cette figure sont les seules combinaisons de tests
qui doivent être exécutées. Cette conception expérimentale

Conception de colonne

Vieux Nouveau

+1
Taux de reflux

+1
−1
−1

− 1 +1

Température de rebouillir

FIGURE 1.6 Une expérience à quatre factoriels pour la colonne de distillation.


1.2 Collecte des données d'ingénierie9

Conception de colonne

Vieux Nouveau

+1

Taux de reflux
+1
−1
−1

− 1 +1

Température de rebouillir

FIGURE 1.7 Une expérience factorielle fractionnaire pour la colonne de distillation.

ne nécessite que 8 passages au lieu des 16 d'origine ; par conséquent, il s'appellerait unune demi-fraction. Il
s'agit d'un excellent modèle expérimental pour étudier les quatre facteurs. Il fournira de bonnes
informations sur les effets individuels des quatre facteurs et quelques informations sur la façon dont ces
facteurs interagissent.
Les expériences factorielles factorielles et fractionnaires sont largement utilisées par les ingénieurs et les
scientifiques dans la recherche et le développement industriels, où de nouvelles technologies, produits et processus
sont conçus et développés et où les produits et processus existants sont améliorés. Étant donné qu'une grande
partie du travail d'ingénierie implique des tests et des expérimentations, il est essentiel que tous les ingénieurs
comprennent les principes de base de la planification d'expériences efficaces et efficientes. Nous discutons de ces
principes au chapitre 13. Le chapitre 14 se concentre sur les factorielles factorielles et fractionnaires que nous avons
introduites ici.

1.2.5 Observer les processus au fil du temps


Souvent, les données sont collectées au fil du temps. Dans ce cas, il est généralement très utile de tracer les données en fonction du
temps dans undiagramme de série chronologique. Les phénomènes susceptibles d'affecter le système ou le processus deviennent
souvent plus visibles dans un tracé orienté vers le temps et le concept de stabilité peut être mieux jugé.

Figure 1.8 est un diagramme en points des lectures de concentration d'acétone prises toutes les heures à partir
de la colonne de distillation décrite dans la section 1.2.2. La grande variation affichée sur le diagramme à points
indique une variabilité considérable de la concentration, mais le graphique n'aide pas à expliquer la raison de la
variation. Le tracé de la série chronologique est illustré à la figure 1.9. Un décalage du niveau moyen du procédé est
visible sur le tracé et une estimation de la durée du décalage peut être obtenue.
W.Edwards Deming, un statisticien industriel très influent, a souligné qu'il est important
comprendre la nature de la variabilité des processus et des systèmes dans le temps. Il a mené une

100
Concentration d'acétone

90

80
X
80,5 84,0 87,5 91,0 94,5 98,0 dix 20 30
Concentration d'acétone Numéro d'observation (heure)

FIGURE 1.8 FIGURE 1.9

Le diagramme de points illustre la variation mais n'identifie pas le Un tracé de série chronologique de la concentration fournit plus
problème. d'informations que le diagramme de points.
dixCHAPITRE 1 Le rôle des statistiques en ingénierie

FIGURE 1.10
L'expérience de l'entonnoir de Deming. Cible marbres

expérience dans laquelle il a tenté de faire tomber des billes aussi près que possible d'une cible sur
une table. Il a utilisé un entonnoir monté sur un support annulaire et les billes ont été déposées dans
l'entonnoir. Voir Figure 1.10. L'entonnoir était aligné aussi près que possible du centre de la cible. Il a
ensuite utilisé deux stratégies différentes pour faire fonctionner le processus. (1) Il n'a jamais déplacé
l'entonnoir. Il a juste laissé tomber une bille après l'autre et a enregistré la distance de la cible. (2) Il
laissa tomber la première bille et nota sa position par rapport à la cible. Il a ensuite déplacé
l'entonnoir d'une distance égale et opposée pour tenter de compenser l'erreur. Il a continué à faire ce
type d'ajustement après chaque chute de bille.
Une fois les deux stratégies terminées, il a remarqué que la variabilité de la distance par rapport à la
cible pour la stratégie 2 était environ deux fois plus grande que pour la stratégie 1. Les ajustements de
l'entonnoir ont augmenté les écarts par rapport à la cible. L'explication est que l'erreur (l'écart de la position
de la bille par rapport à la cible) pour une bille ne fournit aucune information sur l'erreur qui se produira
pour la bille suivante. Par conséquent, les ajustements de l'entonnoir ne diminuent pas les erreurs futures.
Au lieu de cela, ils ont tendance à éloigner l'entonnoir de la cible.
Cette expérience intéressante montre que les ajustements d'un processus basés sur des perturbations
aléatoires peuvent en faitaugmenterla variation du processus. Ceci est appelécontrôle excessif ou
falsification. Les ajustements doivent être appliqués uniquement pour compenser un changement non
aléatoire dans le processus, ils peuvent alors aider. Une simulation informatique peut être utilisée pour
démontrer les leçons de l'expérience de l'entonnoir. Figure 1.11 affiche un tracé temporel de 100 mesures
(notéy) d'un processus dans lequel seules des perturbations aléatoires sont présentes. La valeur cible du
processus est de 10 unités. La figure affiche les données avec et sans ajustements qui sont appliqués à la
moyenne du processus dans le but de produire des données plus proches de la cible. Chaque ajustement est
égal et opposé à l'écart de la mesure précédente par rapport à la cible. Par exemple, lorsque la mesure est
11 (une unité au-dessus de la cible), la moyenne est réduite d'une unité avant que la mesure suivante ne soit
générée. Le surcontrôle augmente les écarts par rapport à la cible.

16

14

12

dix

y
8

Sans réglage
2
Avec réglage

0
1 11 21 31 41 51 61 71 81 91
Numéro d'observation

FIGURE 1.11 Les ajustements appliqués aux perturbations aléatoires surcontrôlent le processus et augmentent les
écarts par rapport à la cible.
1.2 Collecte des données d'ingénierie11

16
Décalage moyen du processus

14 est détecté.

12

dix

y
8

Sans réglage
2
Avec réglage

0
1 11 21 31 41 51 61 71 81 91
Numéro d'observation

FIGURE 1.12 Le décalage de la moyenne du processus est détecté à l'observation numéro 57, et un ajustement
(une diminution de deux unités) réduit les écarts par rapport à la cible.

Figure 1.12 affiche les données sans ajustement de la figure 1.11, sauf que les mesures après
l'observation numéro 50 sont augmentées de deux unités pour simuler l'effet d'un décalage de la moyenne
du processus. Lorsqu'il y a un véritable décalage dans la moyenne d'un processus, un ajustement peut être
utile. Figure 1.12 affiche également les données obtenues lorsqu'un ajustement (une diminution de deux
unités) est appliqué à la moyenne après la détection du décalage (au numéro d'observation 57). Notez que
cet ajustement diminue les écarts par rapport à la cible.
La question de savoir quand appliquer des ajustements (et dans quelle mesure) commence par une
compréhension des types de variation qui affectent un processus. L'utilisation d'uncarte de contrôleest un moyen
inestimable d'examiner la variabilité des données temporelles. Figure 1.13 présente une carte de contrôle pour les
données de concentration de la figure 1.9. Leligne médianesur la carte de contrôle est juste la moyenne des
mesures de concentration pour les 20 premiers échantillons (X=91,5 g∕l) lorsque le processus est stable. Lelimite
supérieure de contrôleet lelimite de contrôle inférieuresont une paire de limites dérivées statistiquement qui
reflètent la variabilité inhérente ou naturelle du processus. Ces limites sont situées à 3 écarts-types des valeurs de
concentration au-dessus et au-dessous de la ligne médiane. Si le processus fonctionne comme il se doit sans aucune
source externe de variabilité présente dans le système, les mesures de concentration devraient fluctuer de manière
aléatoire autour de la ligne médiane, et presque toutes devraient se situer entre les limites de contrôle.

Dans la carte de contrôle de la figure 1.13, le cadre visuel de référence fourni par la ligne médiane et les limites de
contrôle indique qu'un bouleversement ou une perturbation a affecté le processus autour de l'échantillon 20 parce que
toutes les observations suivantes sont en dessous de la ligne médiane, et deux d'entre elles se situent en fait en dessous de la
limite inférieure. limite de contrôle. C'est un signal très fort que des mesures correctives sont nécessaires dans ce processus.
Si nous pouvons trouver et éliminer la cause sous-jacente de cette perturbation, nous pouvons améliorer considérablement
les performances du processus. Ainsi, les limites de contrôle servent de règles de décision sur les actions qui pourraient être
prises pour améliorer le processus.
En outre, Deming a souligné que les données d'un processus sont utilisées pour différents types de
conclusions. Parfois, nous recueillons des données à partir d'un processus pour évaluer la production actuelle. Par
exemple, nous pourrions échantillonner et mesurer la résistivité sur trois tranches de semi-conducteur sélectionnées
dans un lot et utiliser ces informations pour évaluer le lot. Cela s'appelle unétude énumérative. Cependant, dans de
nombreux cas, nous utilisons les données de la production actuelle pour évaluer la production future. Nous
appliquons les conclusions à une population future conceptuelle. Deming a appelé cela unétude analytique. Il est
clair que cela nécessite l'hypothèse d'unécurieprocessus, et Deming a souligné que des cartes de contrôle étaient
nécessaires pour justifier cette hypothèse. Voir Figure 1.14 à titre indicatif.
12CHAPITRE 1 Le rôle des statistiques en ingénierie

100 Limite de contrôle supérieure = 100,5

Temps
Concentration d'acétone

X=91,50
90 Population
? Avenir
population
?
Limite de contrôle inférieure = 82,54 Goûter Goûter

80 1
1
X1,X2,…,Xn X1,X2,…,Xn
0 5 dix 15 20 25 30
Numéro d'observation (heure) Énumération Analytique
étude étude
FIGURE 1.13
FIGURE 1.14
Une carte de contrôle pour les données de
concentration du procédé chimique. Étude énumérative versus analytique.

L'utilisation de cartes de contrôle est une application très importante des statistiques pour surveiller, contrôler
et améliorer un processus. La branche des statistiques qui utilise les cartes de contrôle est appelée Contrôle des
processus statistiques, ouCPS. Nous discutons des SPC et des cartes de contrôle au chapitre 15.

1.3 Modèles mécanistes et empiriques


Les modèles jouent un rôle important dans l'analyse de presque tous les problèmes d'ingénierie. Une grande partie
de la formation formelle des ingénieurs consiste à apprendre les modèles pertinents pour des domaines spécifiques
et les techniques d'application de ces modèles dans la formulation et la résolution de problèmes. À titre d'exemple
simple, supposons que nous mesurions le flux de courant dans un fil de cuivre mince. Notre modèle pour ce
phénomène pourrait être la loi d'Ohm :

Courant = Tension/Résistance
ou
I=E/R (1.2)

Nous appelons ce type de modèle unmodèle mécanistecar il est construit à partir de notre connaissance sous-
jacente du mécanisme physique de base qui relie ces variables. Cependant, si nous effectuons ce processus de
mesure plus d'une fois, peut-être à des moments différents, ou même à des jours différents, le courant observé
pourrait différer légèrement en raison de petits changements ou variations de facteurs qui ne sont pas
complètement contrôlés, tels que les changements de température ambiante, fluctuations des performances de la
jauge, petites impuretés présentes à différents endroits du fil et dérives de la source de tension. Par conséquent, un
modèle plus réaliste du courant observé pourrait être

I= E / R + ϵ (1.3)

où ϵ est un terme ajouté au modèle pour tenir compte du fait que les valeurs observées du flux de courant ne sont
pas parfaitement conformes au modèle mécaniste. Nous pouvons considérer ϵ comme un terme qui inclut les effets
de toutes les sources de variabilité non modélisées qui affectent ce système.
Parfois, les ingénieurs travaillent avec des problèmes pour lesquels aucun modèle mécaniste
simple ou bien compris n'explique le phénomène. Par exemple, supposons que nous nous intéressons
au poids moléculaire moyen en nombre (Mn)d'un polymère. Maintenant nous savons queMnest lié à la
viscosité du matériau (V), et cela dépend aussi de la quantité de catalyseur (C)et la température (J)dans
le réacteur de polymérisation lors de la fabrication du matériau. La relation entreMnet ces variables
est

Mn=f(V, C, T) (1.4)
Traduit de Anglais vers Français - www.onlinedoctranslator.com

1.3 Modèles mécanistes et empiriques13

disons, où leformerde la fonctionFest inconnu. Peut-être qu'un modèle de travail pourrait être développé à partir
d'une extension de la série Taylor de premier ordre, ce qui produirait un modèle de la forme

Mn= β0+ β1V+ β2C+ β3T (1.5)

où les β sont des paramètres inconnus. Maintenant, tout comme dans la loi d'Ohm, ce modèle ne décrira pas
exactement le phénomène, nous devons donc tenir compte des autres sources de variabilité qui peuvent
affecter le poids moléculaire en ajoutant un autre terme au modèle ; donc,

Mn= β0+ β1V+ β2C+ β3T+ ϵ (1.6)

est le modèle que nous utiliserons pour relier le poids moléculaire aux trois autres variables. Ce type de modèle est
appelé unmodèle empirique; c'est-à-dire qu'il utilise nos connaissances techniques et scientifiques du phénomène,
mais qu'il n'est pas directement développé à partir de notre compréhension théorique ou des principes premiers du
mécanisme sous-jacent.
Pour illustrer ces idées avec un exemple spécifique, considérons les données du tableau 1.2, qui contient des
données sur trois variables qui ont été collectées dans une étude d'observation dans une usine de fabrication de
semi-conducteurs. Dans cette usine, le semi-conducteur fini est lié par fil à un cadre. Les variables signalées sont la
force de traction (une mesure de la quantité de force nécessaire pour rompre la liaison), la longueur du fil et la
hauteur de la matrice. Nous aimerions trouver un modèle reliant la force de traction à la longueur du fil et à la
hauteur de la matrice. Malheureusement, il n'y a pas de mécanisme physique que nous puissions facilement
appliquer ici, il ne semble donc pas probable qu'une approche de modélisation mécaniste soit couronnée de succès.

Figure 1.15 présente un tracé tridimensionnel des 25 observations sur la résistance à la traction, la longueur du fil et la
hauteur de la matrice. À partir de l'examen de ce graphique, nous voyons que la force de traction augmente à mesure que la
longueur du fil et la hauteur de la matrice augmentent. De plus, il semble raisonnable de penser qu'un modèle tel que

Force de traction = β0+ β1(longueur du fil) + β2(hauteur de matrice) + ϵ

serait approprié comme modèle empirique pour cette relation. En général, ce type de modèle empirique est appelé
unModèle de régression. Dans les chapitres 11 et 12, nous montrons comment construire ces modèles et tester
leur adéquation en tant que fonctions d'approximation. Nous utilisons une méthode d'estimation des paramètres
dans les modèles de régression, appelée la méthode demoindres carrés, qui trouve ses origines dans l'œuvre de
Karl Gauss. Essentiellement, cette méthode choisit les paramètres dans le modèle empirique (les β) pour minimiser
la somme des distances au carré dans chaque point de données et le plan représenté par l'équation du modèle.
L'application de cette technique aux données du tableau 1.2 donne

Force de traction = 2,26 + 2,74 (longueur du fil) + 0,0125 (hauteur de matrice) (1.7)

où le "chapeau", ou circonflexe, sur la force de traction indique qu'il s'agit d'une qualité estimée ou
prédite.
Figure 1.16 est un tracé des valeurs prédites de la résistance à la traction en fonction de la longueur du fil et de la
hauteur de la matrice obtenues à partir de l'équation 1.7. Notez que les valeurs prédites se situent sur un plan au -dessus de
l'espace longueur de fil-hauteur de matrice. À partir du tracé des données de la figure 1.15, ce modèle n'apparaît pas

80

60
Force de traction

40

20 600
500
400 FIGURE 1.15
0 300
0 200
4 8 Tracé en trois dimensions des données de résistance
12 100
Longueur de fil
16 20 0 à la traction des liaisons par fil.
14CHAPITRE 1 Le rôle des statistiques en ingénierie

TABLEAU 1.2 Données sur la force de traction des liaisons par fil

Numéro d'observation Force de traction y Longueur de fil X1 Hauteur de matrice X2

1 9.95 2 50
2 24h45 8 110
3 31,75 11 120
4 35,00 dix 550
5 25.02 8 295
6 16.86 4 200
7 14h38 2 375
8 9.60 2 52
9 24h35 9 100
dix 27,50 8 300
11 17.08 4 412
12 37.00 11 400
13 41,95 12 500
14 11.66 2 360
15 21.65 4 205
16 17,89 4 400
17 69.00 20 600
18 10h30 1 585
19 34,93 dix 540
20 46,59 15 250
21 44,88 15 290
22 54.12 16 510
23 56,63 17 590
24 22.13 6 100
25 21h15 5 400

80

60
Force de traction

40

20 600
500
FIGURE 1.16 400
0 0 300
Tracé des valeurs prédites de la force de
4 8 200
12 100
traction à partir du modèle empirique. Longueur de fil
16 20 0
1.4 Probabilités et modèles de probabilité15

déraisonnable. Le modèle empirique de l'équation 1.7 pourrait être utilisé pour prédire les valeurs de résistance à la traction pour
diverses combinaisons de longueur de fil et de hauteur de matrice qui présentent un intérêt. Essentiellement, un ingénieur pourrait
utiliser le modèle empirique exactement de la même manière qu'un modèle mécaniste.

1.4 Probabilités et modèles de probabilité


La section 1.1 mentionne que les décisions doivent souvent être fondées sur des mesures provenant uniquement d'un sous -
ensemble d'objets sélectionnés dans un échantillon. Ce processus de raisonnement à partir d'un éc hantillon d'objets vers des
conclusions pour une population d'objets a été appeléinférence statistique. Un échantillon de trois plaquettes sélectionnées à
partir d'un grand lot de production de plaquettes dans la fabrication de semi-conducteurs a été un exemple mentionné. Pour
prendre de bonnes décisions, une analyse de la façon dont un échantillon représente une population est clairement
nécessaire. Si le lot contient des tranches défectueuses, dans quelle mesure l'échantillon détectera-t-il ces éléments
défectueux ? Comment quantifier le critère pour « bien détecter » ? Concrètement, comment quantifier les risques des
décisions basées sur des échantillons ? De plus, comment les échantillons devraient-ils être sélectionnés pour fournir de
bonnes décisions, des décisions avec des risques acceptables ?Modèles de probabilitéaider à quantifier les risques liés à
l'inférence statistique, c'est-à-dire les risques liés aux décisions prises au quotidien.
Plus de détails sont utiles pour décrire le rôle des modèles probabilistes. Supposons qu'un lot de production
contienne 25 tranches. Si toutes les tranches sont défectueuses ou toutes sont bonnes, il est clair que tout
échantillon générera respectivement toutes les tranches défectueuses ou toutes bonnes. Cependant, supposons
qu'une seule plaquette du lot soit défectueuse. Ensuite, un échantillon peut ou non détecter (inclure) la plaquette.
Un modèle de probabilité, associé à une méthode de sélection de l'échantillon, peut être utilisé pour quantifier les
risques que la plaquette défectueuse soit ou non détectée. Sur la base de cette analyse, la taille de l'échantillon peut
être augmentée (ou diminuée). Le risque ici peut être interprété comme suit. Supposons qu'une série de lots, chacun
contenant exactement une tranche défectueuse, soit échantillonnée. Les détails de la méthode utilisée pour
sélectionner l'échantillon sont reportés jusqu'à ce que le caractère aléatoire soit discuté dans le chapitre suivant.
Néanmoins, supposons que l'échantillon de même taille (par exemple, trois tranches) est sélectionné de la même
manière dans chaque lot. La proportion de lots dans lesquels la plaquette défectueuse est incluse dans l'échantillon
ou, plus précisément, la limite de cette proportion lorsque le nombre de lots dans la série tend vers l'infini,
s'interprète comme la probabilité que la plaquette défectueuse soit détectée.
Un modèle probabiliste est utilisé pour calculer cette proportion sous des hypothèses raisonnables quant à la
manière dont l'échantillon est sélectionné. C'est une chance car nous ne voulons pas essayer d'échantillonner à
partir d'une série infinie de lots. Les problèmes de ce type sont traités dans les chapitres 2 et 3. Plus important
encore, cette probabilité fournit des informations quantitatives précieuses concernant toute décision concernant la
qualité d'un lot basée sur l'échantillon.
Rappelez-vous de la section 1.1 qu'une population peut être conceptuelle, comme dans une étude analytique
qui applique une inférence statistique à la production future sur la base des données de la production actuelle.
Lorsque les populations sont étendues de cette manière, le rôle de l'inférence statistique et des modèles de
probabilité associés devient encore plus important.
Dans l'exemple précédent, chaque plaquette de l'échantillon était classée uniquement comme défectueuse ou
non. Au lieu de cela, une mesure continue pourrait être obtenue à partir de chaque plaquette. Dans la section 1.2.5,
des mesures de concentration ont été prises à intervalles périodiques à partir d'un processus de production. Figure
1.8 montre que la variabilité est présente dans les mesures, et il pourrait y avoir des inquiétudes quant au fait que le
processus s'est éloigné du réglage cible pour la concentration. Semblable à la plaquette défectueuse, on pourrait
vouloir quantifier notre capacité à détecter un changement de processus sur la base des données de l'échantillon.
Les limites de contrôle ont été mentionnées dans la section 1.2.5 en tant que règles de décision pour ajuster ou non
un processus. La probabilité qu'un changement de processus particulier soit détecté peut être calculée avec un
modèle de probabilité pour les mesures de concentration. Des modèles de mesures continues sont développés sur
la base d'hypothèses plausibles pour les données et d'un résultat connu sous le nom dethéorème central limite, et la
distribution normale associée est un modèle de probabilité particulièrement précieux pour l'inférence statistique.
Bien sûr, une vérification des hypothèses est importante. Ces types de modèles probabilistes sont abordés au
chapitre 4. L'objectif est toujours de quantifier les risques inhérents à l'inférence faite à partir des données de
l'échantillon.
16CHAPITRE 1 Le rôle des statistiques en ingénierie

Tout au long des chapitres 6 à 15, nous basons nos décisions sur l'inférence statistique à partir de données
d'échantillon. Nous utilisons des modèles de probabilité continue, en particulier la distribution normale, pour
quantifier les risques dans ces décisions et pour évaluer les moyens de collecter les données et la taille d'un
échantillon à sélectionner.

Termes et concepts importants


Etude analytique Tests d'hypothèses Étude rétrospective
Cause et effet Interaction Goûter
Expérience conçue Modèle mécaniste Méthode scientifique
Modèle empirique Étude observationnelle Inférence statistique
Méthode d'ingénierie Contrôle excessif Contrôle statistique des
Étude énumérative Population processus Pensée statistique
Expérience factorielle Modèle de probabilité Falsification
Expérience factorielle fractionnaire Variable aléatoire Des séries chronologiques

Hypothèse Randomisation Variabilité

Vous aimerez peut-être aussi