Académique Documents
Professionnel Documents
Culture Documents
Le rôle des
Statistiques en
Ingénierie
4. Discuter des différentes méthodes utilisées par les ingénieurs pour collecter des données 1.2.4Expériences conçues
1.2.5 Observer les processus au fil du temps
5. Identifier les avantages des expériences conçues par rapport à
1.3Modèles mécanistes et empiriques
d'autres méthodes de collecte de données d'ingénierie
1.4Probabilités et modèles de probabilité
6. Expliquer les différences entre les modèles mécanistes et les
modèles empiriques
7. Discuter de la façon dont les probabilités et les modèles de probabilité sont utilisés
en ingénierie et en science
1
2CHAPITRE 1 Le rôle des statistiques en ingénierie
Statistiquesest une science qui nous aide à prendre des décisions et à tirer des conclusions en présence de
variabilité. Par exemple, les ingénieurs civils travaillant dans le domaine des transports s'inquiètent de la capacité
des réseaux routiers régionaux. Un problème typique lié au transport impliquerait des données concernant le
nombre de déplacements non professionnels à domicile de ce système spécifique, le nombre de personnes par
ménage et le nombre de véhicules par ménage. L'objectif serait de produire un modèle de génération de
déplacements reliant les déplacements au nombre de personnes par ménage et au nombre de véhicules par
ménage. Une technique statistique appeléeanalyse de régressionpeut être utilisé pour construire ce modèle. Le
modèle de génération de déplacements est un outil important pour la planification des systèmes de transport. Les
méthodes de régression font partie des techniques statistiques les plus utilisées en ingénierie. Ils sont présentés
dans les chapitres 11 et 12.
Le service des urgences de l'hôpital (ED) est une partie importante du système de prestation de soins de santé.
Le processus par lequel les patients arrivent à l'urgence est très variable et peut dépendre de l'heure de la journée et
du jour de la semaine, ainsi que de variations cycliques à plus long terme. Le processus de service est également très
variable, selon les types de services dont les patients ont besoin, le nombre de patients à l'urgence et la façon dont
l'urgence est dotée en personnel et organisée. La capacité d'un ED est également limitée ; par conséquent, certains
patients connaissent de longs délais d'attente. Combien de temps les patients attendent-ils en moyenne ? C'est une
question importante pour les prestataires de soins de santé. Si les délais d'attente deviennent excessifs, certains
patients partiront sans traitement (LWOT). Les patients qui LWOT ne voient pas leurs préoccupations médicales
traitées et sont à risque d'autres problèmes et complications. Par conséquent, une autre question importante est :
quelle proportion de patients LWOT de l'ED ? Ces questions peuvent être résolues en utilisant des modèles de
probabilité pour décrire l'ED, et à partir de ces modèles, des estimations très précises des temps d'attente et du
nombre de patients qui LWOT peuvent être obtenus. Les modèles de probabilité qui peuvent être utilisés pour
résoudre ces types de problèmes sont abordés dans les chapitres 2 à 5.
2. Identifiez, au moins provisoirement, les facteurs importants qui affectent ce problème ou qui peuvent jouer un
4. Menez des expériences appropriées et collectez des données pour tester ou valider le modèle provisoire ou les
Conduire
expériences
7. Mener une expérience appropriée pour confirmer que la solution proposée au problème est à la
fois efficace et efficiente.
8. Tirer des conclusions ou faire des recommandations basées sur la solution du problème.
Les étapes de la méthode d'ingénierie sont illustrées à la figure 1.1. De nombreuses sciences de l'ingénieur
emploient la méthode du génie : les sciences mécaniques (statique, dynamique), la science des fluides, la
thermique, l'électricité et la science des matériaux. Notez que la méthode d'ingénierie présente une forte
interaction entre le problème, les facteurs qui peuvent influencer sa solution, un modèle du phénomène et
l'expérimentation pour vérifier l'adéquation du modèle et la solution proposée au problème. Étapes 2 à 4 de
la figure 1.1 sont encadrés, indiquant que plusieurs cycles ou itérations de ces étapes peuvent être
nécessaires pour obtenir la solution finale. Par conséquent, les ingénieurs doivent savoir comment planifier
efficacement des expériences, collecter des données, analyser et interpréter les données et comprendre
comment les données observées se rapportent au modèle qu'ils ont proposé pour le problème à l'étude.
Le domaine destatistiquestraite de la collecte, de la présentation, de l'analyse et de l'utilisation des données pour prendre des
décisions, résoudre des problèmes et concevoir des produits et des processus. En termes simples,la statistique est la science des
données. Étant donné que de nombreux aspects de la pratique de l'ingénierie impliquent de travailler avec des données, il est évident
que la connaissance des statistiques est tout aussi importante pour un ingénieur que le sont les autres sciences de l'ingénieur. Plus
précisément, les techniques statistiques peuvent être des aides puissantes dans la conception de nouveaux produits et systèmes,
l'amélioration des conceptions existantes et la conception, le développement et l'amélioration des processus de production.
1.1.1 Variabilité
Des méthodes statistiques sont utilisées pour nous aider à décrire et à comprendrevariabilité. Par variabilité, nous
entendons que les observations successives d'un système ou d'un phénomène ne produisent pas exactement le
même résultat. Nous rencontrons tous des variations dans notre vie quotidienne, etpensée statistiquepeut nous
donner un moyen utile d'intégrer cette variabilité dans nos processus décisionnels. Par exemple, considérez la
performance de consommation d'essence de votre voiture. Obtenez-vous toujours exactement les mêmes
performances kilométriques sur chaque plein de carburant ? Bien sûr que non, en fait, parfois les performances
kilométriques varient considérablement. Cette variabilité observée dans la consommation d'essence dépend de
nombreux facteurs, tels que le type de conduite le plus récent (ville ou autoroute), les changements dans l'état du
véhicule au fil du temps (qui peuvent inclure des facteurs tels que le gonflage des pneus, la compression du moteur
ou usure des soupapes), la marque et/ou l'indice d'octane de l'essence utilisée, ou encore éventuellement les
conditions climatiques rencontrées récemment. Ces facteurs représentent un potentielsources de variabilitédans le
système. Les statistiques fournissent un cadre pour décrire cette variabilité et pour savoir quelles sources
potentielles de variabilité sont les plus importantes ou qui ont le plus grand impact sur les performances de
consommation d'essence.
4CHAPITRE 1 Le rôle des statistiques en ingénierie
L'exemple suivant illustre comment nous rencontrons la variabilité dans le traitement des problèmes
d'ingénierie.
EXEMPLE 1.1Variabilité de la force de traction est trop faible, le connecteur peut tomber en panne lorsqu'il est installé
dans un moteur. Huit unités prototypes sont produites et leurs forces
Supposons qu'un ingénieur conçoive un connecteur en nylon à utiliser
d'arrachement mesurées, ce qui donne les données suivantes (en
dans une application de moteur automobile. L'ingénieur envisage
livres) : 12,6, 12,9, 13,4, 12,3, 13,6, 13,5, 12,6, 13,1. Comme nous l'avions
d'établir la spécification de conception sur l'épaisseur de paroi à
prévu, tous les prototypes n'ont pas la même force de traction. On dit
3/32 pouces mais est quelque peu incertain quant à l'effet de cette
qu'il y a variabilité dans les mesures de force d'arrachement.
décision sur la force d'arrachement du connecteur. Si la force
d'arrachement
Étant donné que les mesures de la force d'arrachement présentent une variabilité, nous considérons que la force
d'arrachement est une Variable aléatoire. Une façon pratique de penser à une variable aléatoire, disonsX, qui représente une
mesure est en utilisant le modèle
X= μ + ϵ (1.1)
où μ est une constante et ϵ est une perturbation aléatoire. La constante reste la même à chaque mesure,
mais de petits changements dans l'environnement, des écarts dans l'équipement de test, des différences
dans les pièces individuelles elles-mêmes, etc. modifient la valeur de ϵ. S'il n'y avait pas de perturbations, ϵ
serait toujours égal à zéro etXserait toujours égal à la constante μ. Cependant, cela ne se produit jamais dans
le monde réel, donc les mesures réellesXprésentent une variabilité. Nous devons souvent décrire, quantifier
et finalement réduire la variabilité.
Figure 1.2 présente une diagramme de points de ces données. Le diagramme de points est un graphique très utile pour
afficher un petit ensemble de données, par exemple jusqu'à environ 20 observations. Ce graphique nous permet de voir
facilement deux caractéristiques des données : laemplacement, ou le milieu, et ledispersionouvariabilité. Lorsque le
nombre d'observations est faible, il est généralement difficile d'identifier des modèles spécifiques de variabilité, bien que le
diagramme de points soit un moyen pratique de voir les caractéristiques inhabituelles des données.
La nécessité d'une réflexion statistique apparaît souvent dans la résolution de problèmes d'ingénierie.
Considérez l'ingénieur qui conçoit le connecteur. Après avoir testé les prototypes, il sait que la force de traction
moyenne est de 13,0 livres. Cependant, il pense que cela peut être trop faible pour l'application prévue, il décide
donc d'envisager une conception alternative avec une paroi plus épaisse, 1/8 pouces d'épaisseur. Huit prototypes
de cette conception sont construits et les mesures de force de traction observées sont de 12,9, 13,7, 12,8, 13,9, 14,2,
13,2, 13,5 et 13,1. La moyenne est de 13,4. Les résultats pour les deux échantillons sont tracés sous forme de
diagrammes de points dans la figure 1.3. Cet affichage donne l'impression que l'augmentation de l'épaisseur de
paroi a conduit à une augmentation de la force d'arrachement. Cependant, il y a des questions évidentes à se poser.
Par exemple, comment savons-nous qu'un autre échantillon de prototypes ne donnera pas des résultats différents ?
Un échantillon de huit prototypes est-il suffisant pour donner des résultats fiables ? Si nous utilisons les résultats des
tests obtenus jusqu'à présent pour conclure que l'augmentation de l'épaisseur de paroi augmente la résistance,
quels risques sont associés à cette décision ? Par exemple, est-il possible que l'augmentation apparente de la force
de traction observée dans les prototypes plus épais soit due uniquement à la variabilité inhérente au système et que
l'augmentation de l'épaisseur de la pièce (et de son coût) n'ait vraiment aucun effet sur la traction -hors force?
= 3 pouce
12 13 14 15 32
=1
Force d'arrachement
12 13 14 15 8
pouce
Force d'arrachement
FIGURE 1.2
FIGURE 1.3
Diagramme de points des données de force d'arrachement
lorsque l'épaisseur de paroi est de 3∕32 pouces. Diagramme à points de la force d'arrachement pour deux épaisseurs de paroi.
1.2 Collecte des données d'ingénierie5
Une procédure efficace de collecte de données peut grandement simplifier l'analyse et conduire à une meilleure
compréhension de la population ou du processus étudié. Examinons maintenant quelques exemples de ces
méthodes de collecte de données.
• Le journal de température de rebouillage, qui est un enregistrement de la température de rebouillage au fil du temps
Physique
Population
lois
Inférence statistique
Types de
raisonnement
Produit
Goûter FIGURE 1.4
conceptions
Le taux de reflux doit être maintenu constant pour ce processus. Par conséquent, le personnel de production
le change très rarement.
Une étude rétrospective utiliserait la totalité ou un échantillon des données de processus historiques
archivées sur une certaine période de temps. L'objectif de l'étude pourrait être de découvrir les relations
entre les deux températures et le taux de reflux sur la concentration d'acétone dans le flux de produit de
sortie. Cependant, ce type d'étude pose quelques problèmes :
1. Nous ne pourrons peut-être pas voir la relation entre le taux de reflux et la concentration d'acétone car le
taux de reflux n'a pas beaucoup changé au cours de la période historique.
2. Les données archivées sur les deux températures (qui sont enregistrées quasi en continu) ne correspondent pas
parfaitement aux mesures de concentration en acétone (qui sont faites toutes les heures).
Il n'est peut-être pas évident de construire une correspondance approximative.
3. La production maintient les deux températures aussi près que possible des cibles ou points de consigne
souhaités. Parce que les températures changent si peu, il peut être difficile d'évaluer leur impact réel sur la
concentration d'acétone.
4. Dans les plages étroites à l'intérieur desquelles elles varient, la température du condensat a tendance à augmenter avec
la température de rebouillage. Par conséquent, les effets de ces deux variables de processus sur la concentration
d'acétone peuvent être difficiles à séparer.
Comme vous pouvez le voir, une étude rétrospective peut impliquer une quantité importante dedonnées, mais ces données
peuvent contenir relativement peu de données utilesinformationau sujet du problème. De plus, certaines des données
pertinentes peuvent être manquantes, il peut y avoir des erreurs de transcription ou d'enregistrement entraînant desvaleurs
aberrantes (ou des valeurs inhabituelles), ou des données sur d'autres facteurs importants peuvent ne pas avoir été
collectées et archivées. Dans la colonne de distillation, par exemple, les concentrations spécifiques d'alcool butylique et
d'acétone dans le flux d'alimentation en entrée sont des facteurs très importants, mais ils ne sont pas archivés car les
concentrations sont trop difficiles à obtenir en routine. En raison de ces types de problèmes, l'analyse statistique des données
historiques identifie parfois des phénomènes intéressants, mais des explications solides et fiables de ces phénomènes sont
souvent difficiles à obtenir.
des tests ou des expérimentations. Souvent, les ingénieurs travaillent dans des domaines problématiques où aucun scientifique
1.2 Collecte des données d'ingénierie7
Les expériences conçues offrent une approche très puissante pour étudier des systèmes complexes, tels que la
colonne de distillation. Ce processus a trois facteurs - les deux températures et le taux de reflux - et nous voulons
étudier l'effet de ces trois facteurs sur la concentration d'acétone en sortie. Une bonne conception expérimentale
pour ce problème doit garantir que nous pouvons séparer les effets des trois facteurs sur la concentration
d'acétone. Les valeurs spécifiées des trois facteurs utilisés dans l'expérience sont appeléesniveaux de facteurs. En
règle générale, nous utilisons un petit nombre de niveaux, tels que deux ou trois, pour chaque facteur. Pour le
problème de la colonne de distillation, supposons que nous utilisions deux niveaux, "haut" et "bas" (notés +1 et -1,
respectivement), pour chacun des trois facteurs. Une stratégie de conception d'expérience très raisonnable utilise
toutes les combinaisons possibles des niveaux de facteur pour former une expérience de base avec huit paramètres
différents pour le processus. Ce type d'expérience s'appelle unexpérience factorielle. Voir le tableau 1.1 pour ce
plan expérimental.
−1 −1 −1
+1 −1 −1
−1 +1 −1
+1 +1 −1
−1 −1 +1
+1 −1 +1
−1 +1 +1
+1 +1 +1
8CHAPITRE 1 Le rôle des statistiques en ingénierie
+1 +1
Taux de reflux
-1 -1
FIGURE 1.5
-1 +1
Le plan factoriel de la colonne de distillation. Température de rebouillir
Figure 1.5 illustre que cette conception forme un cube en termes de ces niveaux haut et bas. À chaque réglage
des conditions de traitement, nous laissons la colonne atteindre l'équilibre, prélevons un échantillon du flux de
produit et déterminons la concentration d'acétone. Nous pouvons alors tirer des conclusions spécifiques sur l'effet
de ces facteurs. Une telle approche nous permet d'étudier de manière proactive une population ou un processus.
Un avantage important des expériences factorielles est qu'elles permettent de détecter une interactionentre
les facteurs. Ne considérez que les deux facteurs de température dans l'expérience de distillation. Supposons que la
concentration de réponse est faible lorsque la température de rebouillage estfaible, quelle que soit la température
du condensat. C'est-à-dire que la température du condensat n'a aucun effet lorsque la température de rebouillage
estfaible. Cependant, lorsque la température de rebouillage esthaut, unhautla température du condensat génère
une bonne réponse, mais unefaiblela température du condensat génère une mauvaise réponse. C'est-à-dire que la
température du condensat modifie la réponse lorsque la température de rebouillage esthaut. L'effet de la
température du condensat dépend du réglage de la température de rebouillage, et on dit que ces deux facteurs
interagissent dans ce cas. Si les quatre combinaisons dehautetfaible les températures de rebouillage et de
condensat n'ont pas été testées, une telle interaction ne serait pas détectée.
Nous pouvons facilement étendre la stratégie factorielle à plus de facteurs. Supposons que l'ingénieur veuille
considérer un quatrième facteur, le type de colonne de distillation. Il en existe deux types : le modèle standard et un modèle
plus récent. Figure 1.6 illustre comment les quatre facteurs (température de rebouillage, température de condensat, taux de
reflux et conception de la colonne) pourraient être étudiés dans une conception factorielle. Parce que les quatre facteurs sont
toujours à deux niveaux, la conception expérimentale peut toujours être représentée géométriquement comme un cube (en
fait, c'est unhypercube). Notez que comme dans tout plan factoriel, toutes les combinaisons possibles des quatre facteurs
sont testées. L'expérience nécessite 16 essais.
Généralement, s'il y akfacteurs et chacun a deux niveaux, un plan expérimental factoriel nécessitera 2kcourt.
Par exemple, aveck=4, le 24conception de la figure 1.6 nécessite 16 tests. De toute évidence, à mesure que le nombre
de facteurs augmente, le nombre d'essais requis dans une expérience factorielle augmente rapidement ; par
exemple, huit facteurs chacun à deux niveaux nécessiteraient 256 essais. Cela devient rapidement irréalisable du
point de vue du temps et des autres ressources. Heureusement, avec quatre à cinq facteurs ou plus, il n'est
généralement pas nécessaire de tester toutes les combinaisons possibles de niveaux de facteurs. UNexpérience
factorielle fractionnaireest une variante de l'arrangement factoriel de base dans lequel seul un sous-ensemble des
combinaisons de facteurs est réellement testé. Figure 1.7 montre un plan expérimental factoriel fractionnaire pour la
colonne de distillation. Les combinaisons de tests encerclées dans cette figure sont les seules combinaisons de tests
qui doivent être exécutées. Cette conception expérimentale
Conception de colonne
Vieux Nouveau
+1
Taux de reflux
+1
−1
−1
− 1 +1
Température de rebouillir
Conception de colonne
Vieux Nouveau
+1
Taux de reflux
+1
−1
−1
− 1 +1
Température de rebouillir
ne nécessite que 8 passages au lieu des 16 d'origine ; par conséquent, il s'appellerait unune demi-fraction. Il
s'agit d'un excellent modèle expérimental pour étudier les quatre facteurs. Il fournira de bonnes
informations sur les effets individuels des quatre facteurs et quelques informations sur la façon dont ces
facteurs interagissent.
Les expériences factorielles factorielles et fractionnaires sont largement utilisées par les ingénieurs et les
scientifiques dans la recherche et le développement industriels, où de nouvelles technologies, produits et processus
sont conçus et développés et où les produits et processus existants sont améliorés. Étant donné qu'une grande
partie du travail d'ingénierie implique des tests et des expérimentations, il est essentiel que tous les ingénieurs
comprennent les principes de base de la planification d'expériences efficaces et efficientes. Nous discutons de ces
principes au chapitre 13. Le chapitre 14 se concentre sur les factorielles factorielles et fractionnaires que nous avons
introduites ici.
Figure 1.8 est un diagramme en points des lectures de concentration d'acétone prises toutes les heures à partir
de la colonne de distillation décrite dans la section 1.2.2. La grande variation affichée sur le diagramme à points
indique une variabilité considérable de la concentration, mais le graphique n'aide pas à expliquer la raison de la
variation. Le tracé de la série chronologique est illustré à la figure 1.9. Un décalage du niveau moyen du procédé est
visible sur le tracé et une estimation de la durée du décalage peut être obtenue.
W.Edwards Deming, un statisticien industriel très influent, a souligné qu'il est important
comprendre la nature de la variabilité des processus et des systèmes dans le temps. Il a mené une
100
Concentration d'acétone
90
80
X
80,5 84,0 87,5 91,0 94,5 98,0 dix 20 30
Concentration d'acétone Numéro d'observation (heure)
Le diagramme de points illustre la variation mais n'identifie pas le Un tracé de série chronologique de la concentration fournit plus
problème. d'informations que le diagramme de points.
dixCHAPITRE 1 Le rôle des statistiques en ingénierie
FIGURE 1.10
L'expérience de l'entonnoir de Deming. Cible marbres
expérience dans laquelle il a tenté de faire tomber des billes aussi près que possible d'une cible sur
une table. Il a utilisé un entonnoir monté sur un support annulaire et les billes ont été déposées dans
l'entonnoir. Voir Figure 1.10. L'entonnoir était aligné aussi près que possible du centre de la cible. Il a
ensuite utilisé deux stratégies différentes pour faire fonctionner le processus. (1) Il n'a jamais déplacé
l'entonnoir. Il a juste laissé tomber une bille après l'autre et a enregistré la distance de la cible. (2) Il
laissa tomber la première bille et nota sa position par rapport à la cible. Il a ensuite déplacé
l'entonnoir d'une distance égale et opposée pour tenter de compenser l'erreur. Il a continué à faire ce
type d'ajustement après chaque chute de bille.
Une fois les deux stratégies terminées, il a remarqué que la variabilité de la distance par rapport à la
cible pour la stratégie 2 était environ deux fois plus grande que pour la stratégie 1. Les ajustements de
l'entonnoir ont augmenté les écarts par rapport à la cible. L'explication est que l'erreur (l'écart de la position
de la bille par rapport à la cible) pour une bille ne fournit aucune information sur l'erreur qui se produira
pour la bille suivante. Par conséquent, les ajustements de l'entonnoir ne diminuent pas les erreurs futures.
Au lieu de cela, ils ont tendance à éloigner l'entonnoir de la cible.
Cette expérience intéressante montre que les ajustements d'un processus basés sur des perturbations
aléatoires peuvent en faitaugmenterla variation du processus. Ceci est appelécontrôle excessif ou
falsification. Les ajustements doivent être appliqués uniquement pour compenser un changement non
aléatoire dans le processus, ils peuvent alors aider. Une simulation informatique peut être utilisée pour
démontrer les leçons de l'expérience de l'entonnoir. Figure 1.11 affiche un tracé temporel de 100 mesures
(notéy) d'un processus dans lequel seules des perturbations aléatoires sont présentes. La valeur cible du
processus est de 10 unités. La figure affiche les données avec et sans ajustements qui sont appliqués à la
moyenne du processus dans le but de produire des données plus proches de la cible. Chaque ajustement est
égal et opposé à l'écart de la mesure précédente par rapport à la cible. Par exemple, lorsque la mesure est
11 (une unité au-dessus de la cible), la moyenne est réduite d'une unité avant que la mesure suivante ne soit
générée. Le surcontrôle augmente les écarts par rapport à la cible.
16
14
12
dix
y
8
Sans réglage
2
Avec réglage
0
1 11 21 31 41 51 61 71 81 91
Numéro d'observation
FIGURE 1.11 Les ajustements appliqués aux perturbations aléatoires surcontrôlent le processus et augmentent les
écarts par rapport à la cible.
1.2 Collecte des données d'ingénierie11
16
Décalage moyen du processus
14 est détecté.
12
dix
y
8
Sans réglage
2
Avec réglage
0
1 11 21 31 41 51 61 71 81 91
Numéro d'observation
FIGURE 1.12 Le décalage de la moyenne du processus est détecté à l'observation numéro 57, et un ajustement
(une diminution de deux unités) réduit les écarts par rapport à la cible.
Figure 1.12 affiche les données sans ajustement de la figure 1.11, sauf que les mesures après
l'observation numéro 50 sont augmentées de deux unités pour simuler l'effet d'un décalage de la moyenne
du processus. Lorsqu'il y a un véritable décalage dans la moyenne d'un processus, un ajustement peut être
utile. Figure 1.12 affiche également les données obtenues lorsqu'un ajustement (une diminution de deux
unités) est appliqué à la moyenne après la détection du décalage (au numéro d'observation 57). Notez que
cet ajustement diminue les écarts par rapport à la cible.
La question de savoir quand appliquer des ajustements (et dans quelle mesure) commence par une
compréhension des types de variation qui affectent un processus. L'utilisation d'uncarte de contrôleest un moyen
inestimable d'examiner la variabilité des données temporelles. Figure 1.13 présente une carte de contrôle pour les
données de concentration de la figure 1.9. Leligne médianesur la carte de contrôle est juste la moyenne des
mesures de concentration pour les 20 premiers échantillons (X=91,5 g∕l) lorsque le processus est stable. Lelimite
supérieure de contrôleet lelimite de contrôle inférieuresont une paire de limites dérivées statistiquement qui
reflètent la variabilité inhérente ou naturelle du processus. Ces limites sont situées à 3 écarts-types des valeurs de
concentration au-dessus et au-dessous de la ligne médiane. Si le processus fonctionne comme il se doit sans aucune
source externe de variabilité présente dans le système, les mesures de concentration devraient fluctuer de manière
aléatoire autour de la ligne médiane, et presque toutes devraient se situer entre les limites de contrôle.
Dans la carte de contrôle de la figure 1.13, le cadre visuel de référence fourni par la ligne médiane et les limites de
contrôle indique qu'un bouleversement ou une perturbation a affecté le processus autour de l'échantillon 20 parce que
toutes les observations suivantes sont en dessous de la ligne médiane, et deux d'entre elles se situent en fait en dessous de la
limite inférieure. limite de contrôle. C'est un signal très fort que des mesures correctives sont nécessaires dans ce processus.
Si nous pouvons trouver et éliminer la cause sous-jacente de cette perturbation, nous pouvons améliorer considérablement
les performances du processus. Ainsi, les limites de contrôle servent de règles de décision sur les actions qui pourraient être
prises pour améliorer le processus.
En outre, Deming a souligné que les données d'un processus sont utilisées pour différents types de
conclusions. Parfois, nous recueillons des données à partir d'un processus pour évaluer la production actuelle. Par
exemple, nous pourrions échantillonner et mesurer la résistivité sur trois tranches de semi-conducteur sélectionnées
dans un lot et utiliser ces informations pour évaluer le lot. Cela s'appelle unétude énumérative. Cependant, dans de
nombreux cas, nous utilisons les données de la production actuelle pour évaluer la production future. Nous
appliquons les conclusions à une population future conceptuelle. Deming a appelé cela unétude analytique. Il est
clair que cela nécessite l'hypothèse d'unécurieprocessus, et Deming a souligné que des cartes de contrôle étaient
nécessaires pour justifier cette hypothèse. Voir Figure 1.14 à titre indicatif.
12CHAPITRE 1 Le rôle des statistiques en ingénierie
Temps
Concentration d'acétone
X=91,50
90 Population
? Avenir
population
?
Limite de contrôle inférieure = 82,54 Goûter Goûter
80 1
1
X1,X2,…,Xn X1,X2,…,Xn
0 5 dix 15 20 25 30
Numéro d'observation (heure) Énumération Analytique
étude étude
FIGURE 1.13
FIGURE 1.14
Une carte de contrôle pour les données de
concentration du procédé chimique. Étude énumérative versus analytique.
L'utilisation de cartes de contrôle est une application très importante des statistiques pour surveiller, contrôler
et améliorer un processus. La branche des statistiques qui utilise les cartes de contrôle est appelée Contrôle des
processus statistiques, ouCPS. Nous discutons des SPC et des cartes de contrôle au chapitre 15.
Courant = Tension/Résistance
ou
I=E/R (1.2)
Nous appelons ce type de modèle unmodèle mécanistecar il est construit à partir de notre connaissance sous-
jacente du mécanisme physique de base qui relie ces variables. Cependant, si nous effectuons ce processus de
mesure plus d'une fois, peut-être à des moments différents, ou même à des jours différents, le courant observé
pourrait différer légèrement en raison de petits changements ou variations de facteurs qui ne sont pas
complètement contrôlés, tels que les changements de température ambiante, fluctuations des performances de la
jauge, petites impuretés présentes à différents endroits du fil et dérives de la source de tension. Par conséquent, un
modèle plus réaliste du courant observé pourrait être
I= E / R + ϵ (1.3)
où ϵ est un terme ajouté au modèle pour tenir compte du fait que les valeurs observées du flux de courant ne sont
pas parfaitement conformes au modèle mécaniste. Nous pouvons considérer ϵ comme un terme qui inclut les effets
de toutes les sources de variabilité non modélisées qui affectent ce système.
Parfois, les ingénieurs travaillent avec des problèmes pour lesquels aucun modèle mécaniste
simple ou bien compris n'explique le phénomène. Par exemple, supposons que nous nous intéressons
au poids moléculaire moyen en nombre (Mn)d'un polymère. Maintenant nous savons queMnest lié à la
viscosité du matériau (V), et cela dépend aussi de la quantité de catalyseur (C)et la température (J)dans
le réacteur de polymérisation lors de la fabrication du matériau. La relation entreMnet ces variables
est
Mn=f(V, C, T) (1.4)
Traduit de Anglais vers Français - www.onlinedoctranslator.com
disons, où leformerde la fonctionFest inconnu. Peut-être qu'un modèle de travail pourrait être développé à partir
d'une extension de la série Taylor de premier ordre, ce qui produirait un modèle de la forme
où les β sont des paramètres inconnus. Maintenant, tout comme dans la loi d'Ohm, ce modèle ne décrira pas
exactement le phénomène, nous devons donc tenir compte des autres sources de variabilité qui peuvent
affecter le poids moléculaire en ajoutant un autre terme au modèle ; donc,
est le modèle que nous utiliserons pour relier le poids moléculaire aux trois autres variables. Ce type de modèle est
appelé unmodèle empirique; c'est-à-dire qu'il utilise nos connaissances techniques et scientifiques du phénomène,
mais qu'il n'est pas directement développé à partir de notre compréhension théorique ou des principes premiers du
mécanisme sous-jacent.
Pour illustrer ces idées avec un exemple spécifique, considérons les données du tableau 1.2, qui contient des
données sur trois variables qui ont été collectées dans une étude d'observation dans une usine de fabrication de
semi-conducteurs. Dans cette usine, le semi-conducteur fini est lié par fil à un cadre. Les variables signalées sont la
force de traction (une mesure de la quantité de force nécessaire pour rompre la liaison), la longueur du fil et la
hauteur de la matrice. Nous aimerions trouver un modèle reliant la force de traction à la longueur du fil et à la
hauteur de la matrice. Malheureusement, il n'y a pas de mécanisme physique que nous puissions facilement
appliquer ici, il ne semble donc pas probable qu'une approche de modélisation mécaniste soit couronnée de succès.
Figure 1.15 présente un tracé tridimensionnel des 25 observations sur la résistance à la traction, la longueur du fil et la
hauteur de la matrice. À partir de l'examen de ce graphique, nous voyons que la force de traction augmente à mesure que la
longueur du fil et la hauteur de la matrice augmentent. De plus, il semble raisonnable de penser qu'un modèle tel que
serait approprié comme modèle empirique pour cette relation. En général, ce type de modèle empirique est appelé
unModèle de régression. Dans les chapitres 11 et 12, nous montrons comment construire ces modèles et tester
leur adéquation en tant que fonctions d'approximation. Nous utilisons une méthode d'estimation des paramètres
dans les modèles de régression, appelée la méthode demoindres carrés, qui trouve ses origines dans l'œuvre de
Karl Gauss. Essentiellement, cette méthode choisit les paramètres dans le modèle empirique (les β) pour minimiser
la somme des distances au carré dans chaque point de données et le plan représenté par l'équation du modèle.
L'application de cette technique aux données du tableau 1.2 donne
Force de traction = 2,26 + 2,74 (longueur du fil) + 0,0125 (hauteur de matrice) (1.7)
où le "chapeau", ou circonflexe, sur la force de traction indique qu'il s'agit d'une qualité estimée ou
prédite.
Figure 1.16 est un tracé des valeurs prédites de la résistance à la traction en fonction de la longueur du fil et de la
hauteur de la matrice obtenues à partir de l'équation 1.7. Notez que les valeurs prédites se situent sur un plan au -dessus de
l'espace longueur de fil-hauteur de matrice. À partir du tracé des données de la figure 1.15, ce modèle n'apparaît pas
80
60
Force de traction
40
20 600
500
400 FIGURE 1.15
0 300
0 200
4 8 Tracé en trois dimensions des données de résistance
12 100
Longueur de fil
16 20 0 à la traction des liaisons par fil.
14CHAPITRE 1 Le rôle des statistiques en ingénierie
TABLEAU 1.2 Données sur la force de traction des liaisons par fil
1 9.95 2 50
2 24h45 8 110
3 31,75 11 120
4 35,00 dix 550
5 25.02 8 295
6 16.86 4 200
7 14h38 2 375
8 9.60 2 52
9 24h35 9 100
dix 27,50 8 300
11 17.08 4 412
12 37.00 11 400
13 41,95 12 500
14 11.66 2 360
15 21.65 4 205
16 17,89 4 400
17 69.00 20 600
18 10h30 1 585
19 34,93 dix 540
20 46,59 15 250
21 44,88 15 290
22 54.12 16 510
23 56,63 17 590
24 22.13 6 100
25 21h15 5 400
80
60
Force de traction
40
20 600
500
FIGURE 1.16 400
0 0 300
Tracé des valeurs prédites de la force de
4 8 200
12 100
traction à partir du modèle empirique. Longueur de fil
16 20 0
1.4 Probabilités et modèles de probabilité15
déraisonnable. Le modèle empirique de l'équation 1.7 pourrait être utilisé pour prédire les valeurs de résistance à la traction pour
diverses combinaisons de longueur de fil et de hauteur de matrice qui présentent un intérêt. Essentiellement, un ingénieur pourrait
utiliser le modèle empirique exactement de la même manière qu'un modèle mécaniste.
Tout au long des chapitres 6 à 15, nous basons nos décisions sur l'inférence statistique à partir de données
d'échantillon. Nous utilisons des modèles de probabilité continue, en particulier la distribution normale, pour
quantifier les risques dans ces décisions et pour évaluer les moyens de collecter les données et la taille d'un
échantillon à sélectionner.