Académique Documents
Professionnel Documents
Culture Documents
APPRÊT TECHNIQUE
Apprêt technique
Sommaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
des produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Sommaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Optimiser les processus avec la conception d'expériences
introduction
Avez-vous besoin d'un moyen efficace pour déterminer quels changements de processus produiront les gains les plus importants?
Dans la hâte d'obtenir des réponses, êtes-vous obligé de couper les coins, limitant votre compréhension des véritables moteurs de la
Le temps consacré aux tentatives de résolution de problèmes réduit-il les opportunités d'innovation et d'amélioration des
processus?
Si vous avez répondu oui à l'une de ces questions et que vous n'avez pas suffisamment de données pour répondre à vos questions,
lisez la suite pour voir comment les capacités de conception d'expériences (DOE) de classe mondiale dans JMP aident les utilisateurs
à obtenir des informations pour résoudre ces problèmes rapidement et de manière permanente, donnant à leur organisation un
avantage concurrentiel maintenant, et la bande passante pour innover pour la croissance future. Si vous disposez déjà de
suffisamment de données existantes, vous pouvez également lire le guide technique complémentaire, Amélioration des processus avec
Le DOE est utile lorsque vous ne disposez peut-être pas des données appropriées pour résoudre un problème - vous pouvez avoir
collecté des données dans un but différent, de sorte qu'elles ne sont pas directement pertinentes, ou des variables clés peuvent avoir été
modifiées de la même manière en même temps. Parfois, les processus que vous étudiez sont si nouveaux que les données antérieures
disponibles sont limitées. Dans ces situations, JMP for DOE aide les utilisateurs à définir le plan le plus rentable pour collecter de
Grâce à des études de cas du monde réel, vous pouvez découvrir les meilleures pratiques pour définir de nouveaux plans de collecte
de données rentables en utilisant les avancées récentes du DOE, modéliser statistiquement les modèles de variation importants dans
les données résultantes et interagir visuellement avec ces modèles pour identifier les des conditions de fonctionnement robustes.
Les entreprises tirent de la valeur de JMP pour le DOE de plusieurs manières. Une entreprise ne pouvait pas évoluer de manière
prévisible et se transférer dans les processus de production pour fabriquer de nouveaux produits. Cela a entraîné des lancements de
produits retardés et une mauvaise prévisibilité de l'approvisionnement une fois en production. La pratique d'ingénierie de l'organisation
consistait à faire varier un facteur à la fois (OFAT) pour tenter de résoudre les problèmes. Les employés manquaient de connaissances
1
Apprêt technique
Pour réduire le seuil d'apprentissage et la complexité perçue des premiers pas avec DOE, une application personnalisée en
fonction de la terminologie et du langage d'ingénierie de l'entreprise a été développée. Cela a permis à leur communauté
d'ingénieurs d'adopter facilement le DOE, et ils développent et transfèrent désormais les processus dès la première fois.
L'extension et le transfert des processus sont désormais prévisibles et efficaces, et les ingénieurs de nombreuses usines de
Par rapport à l'ancienne approche consistant à varier un facteur à la fois, la société optimise et met à l'échelle les processus de
production avec moins de cycles expérimentaux individuels, économisant environ 3 millions de dollars américains par site de
production par an en réduisant l'effort expérimental à lui seul. Il y a un énorme avantage à arriver sur le marché plus rapidement et
Une autre entreprise devait doubler la capacité d'une gamme de produits pour répondre à la demande croissante. Ils avaient une
compréhension limitée des étapes clés du processus, un grand nombre de variables potentiellement importantes pouvant
influencer le débit et un budget limité pour l'expérimentation. Ils ont utilisé une conception de criblage définitive - une nouvelle
conception innovante d'expériences - pour minimiser les dépenses expérimentales. La modélisation statistique des données
obtenues a fourni le savoir-faire permettant de doubler le taux de production sans investissement en capital. C'est vrai - deux fois
le produit, pas de dépenses en capital supplémentaires! L'utilisation d'une conception de dépistage définitive a permis
d'économiser des centaines de milliers de dollars sur le budget de développement et le groupe de développement a gagné en
crédibilité interne.
Le DOE a été lancé dans les années 1920 par Sir Ronald A. Fisher à la station expérimentale de Rothamsted en Angleterre. Fisher a
d'abord appliqué le DOE pour augmenter les rendements des cultures dans l'agriculture; depuis lors, le DOE a joué un rôle majeur dans
2
Optimiser les processus avec la conception d'expériences
1 . Concept factoriel - faire varier tous les facteurs ensemble à l'aide d'une grille factorielle plutôt que de faire varier un facteur à
la fois.
2. Randomisation - randomiser l'ordre des essais expérimentaux individuels dans la grille factorielle pour éviter le
• Plus tard dans les années 1930, Frank Yates a simplifié l'analyse des données du DOE en introduisant l'algorithme Yates, ce qui
explique pourquoi de nombreux modèles sont toujours codés sur une valeur de -1 à
+ 1 échelle.
• Dans les années 40, DJ Finney a introduit le plan factoriel fractionnaire, qui a permis d'étudier de nombreux
facteurs à la moitié, voire au quart du coût du plan factoriel de Fisher.
• Dans les années 1950, George Box et d'autres ont déployé le DOE en chimie et industrialisé son application.
• Depuis, chaque décennie a vu des améliorations dans la méthode DOE. Au cours des dernières années, la
conception de la projection définitive a été inventée par Brad Jones de SAS et Chris Nachtsheim de l'Université du
Minnesota.
Les méthodes du DOE sont désormais largement appliquées dans les domaines de la conception, du développement, de la mise à
l'échelle, de la fabrication et de la «qualité par conception» (QbD) afin de garantir que les questions clés reçoivent des réponses
prévisibles et économiques.
Le DOE peut potentiellement vous aider à chaque fois que vous rencontrez des problèmes techniques ou commerciaux et
• Le temps pour résoudre les problèmes est imprévisible ou vous vous retrouvez à répéter ou à effectuer un grand
• Vous vous sentez obligé de faire des économies et de prendre des décisions sur des informations incomplètes.
• Les produits et les processus sont définis ou transférés avec une compréhension incomplète de leur fonctionnement.
• Vous êtes parfois coincé dans un cercle vicieux réactif où la résolution des problèmes avec les produits et processus
existants limite votre temps pour l'innovation et le développement de nouveaux processus ou produits.
Ensuite, à condition que vous ayez la possibilité de collecter de nouvelles données grâce à une intervention active, le DOE vous aidera à
définir les données que vous devez collecter et, en analysant les données résultantes, à répondre à vos questions de manière efficace et
efficiente.
3
Apprêt technique
La méthode DOE vous aidera à optimiser les produits et les processus de manière prévisible et rapide. Il vous permettra de prendre
de meilleures décisions plus éclairées, apportant de la prévisibilité à la prise de décision, réduisant ainsi les risques pour votre
entreprise.
Vous pourrez transférer des produits et des processus avec une meilleure connaissance de leur fonctionnement. De ce fait, il
sera moins nécessaire d'améliorer ou de «combattre les incendies» des produits ou des processus lors de la production, ce qui
laisse plus de temps de R&D à consacrer à l'innovation, au développement de nouveaux produits et processus.
Les propriétés des produits et des processus sont généralement affectées par de nombreux facteurs ou intrants. Par exemple, la
figure 2 illustre un processus chimique où le chimiste pense qu'il y a cinq entrées qui peuvent être responsables de la variation
des deux réponses ou sorties. Lors de la détermination de l'ensemble des entrées, l'analyse statistique des données antérieures
peut aider à identifier les facteurs à étudier. Sinon, il vaut mieux pécher par excès de prudence et inclure autant de facteurs que
vous pensez susceptibles d'avoir un effet sur une ou plusieurs de vos réponses, à condition que vous disposiez d'un budget
suffisant.
4
Optimiser les processus avec la conception d'expériences
L'approche OFAT est illustrée en utilisant seulement deux des facteurs de la figure 2 (température et temps) pour étudier
leur effet sur l'une des réponses (rendement). Les connaissances antérieures indiquent qu'il est préférable d'étudier la
température sur la plage de 500 à 550 degrés C (900 à 1 000 degrés F) et de faire varier le temps sur la plage de 500 à
1300 minutes.
La première séquence d'expériences a été réalisée en maintenant la température fixe à 520 degrés C et en variant le
temps dans la plage de 500 à 1 300 minutes par incréments de 100 minutes. Cela a abouti à la courbe de rendement
La prochaine série d'expériences a été réalisée en faisant varier la température de 500 à 550 degrés C par incréments de 10
C (50 degrés F) tout en maintenant le temps fixé à 1 100 minutes. (1100 minutes ont été privilégiées à une valeur légèrement
5
Apprêt technique
Le meilleur réglage de la température à 1100 minutes est de 530 degrés Celsius, ce qui donne un rendement d'un peu moins de
60%. La figure 5 est un tracé de la température en fonction du temps en utilisant un gradient de coloration pour la valeur du
rendement à chaque point expérimental. Il affiche le rendement le plus élevé de 59,3% à 1 100 minutes et 530 ° C. Cela indique
également beaucoup d'espace blanc, ce qui est préoccupant. Cet espace blanc indique que nous savons très peu de ce à quoi
s'attendre quand:
• Le temps est inférieur à 1 000 minutes et la température est supérieure à 530 degrés Celsius.
• Le temps est inférieur à 1 000 minutes et la température est inférieure à 510 degrés Celsius.
• Le temps est supérieur à 1 200 minutes et la température est supérieure à 530 degrés Celsius.
• Le temps est supérieur à 1 200 minutes et la température est inférieure à 510 degrés Celsius.
Figure 5: Temps vs température avec des points expérimentaux colorés par le rendement
6
Optimiser les processus avec la conception d'expériences
Lorsque nous apprenons qu'une température de 550 degrés C et un temps de 500 minutes produisent un
rendement plus élevé de 66,5% - à un coût nettement inférieur - le risque d'expérimenter une série de
Les approches OFAT conduisent fréquemment à des solutions sous-optimales. En effet, l'OFAT suppose que l'effet d'un
facteur est le même à chaque niveau des autres facteurs, c'est-à-dire que les facteurs n'interagissent pas. Malheureusement,
dans la pratique, les facteurs interagissent fréquemment et les chances que deux facteurs ou plus interagissent augmentent
plus le nombre de facteurs étudiés est grand et plus la plage de variation des facteurs est large.
7
Apprêt technique
Le diagramme 3D de tracé et de contour de la figure 7 illustre l'effet interactif du temps et de la température sur le
rendement avec l'effet de crête qui va de combinaisons de temps et de température de 1 200 et 528 avec un rendement de
56%, à 900 et 536 avec un rendement de 61 pour cent, à 500 et 550 avec un rendement de plus de 65 pour cent. L'effet
de cette interaction (ou crête) est que le meilleur réglage pour la température choisie par l'OFAT dépend de la valeur du
temps.
Par exemple, si le temps est fixé à 1 000, le meilleur réglage de température est 534, ce qui donne un rendement
légèrement supérieur à 60%. Alors que, comme nous l'avons déjà vu, si le temps est fixé à 500, le meilleur réglage de
température est 550, ce qui donne un rendement légèrement supérieur à 65%. En présence d'effet interactif de facteurs
sur la réponse, la solution identifiée par l'OFAT dépend de votre point de départ, et ce n'est que par hasard que les
Le DOE fournit le moyen le plus efficace et le plus efficace d'étudier les relations entre les facteurs et les
réponses. L'efficience et l'efficacité du DOE par rapport à l'OFAT augmentent d'autant plus le nombre d'effets
interactifs entre les facteurs.
Le DOE nécessaire pour étudier les effets du temps et de la température sur le rendement, et pour trouver les
optima globaux, est donné dans la figure 8. Il s'agit d'une grille 3x3 de points dans le temps et la température,
avec trois répétitions supplémentaires du point central pour donner une base de référence pour le bruit ou les
variations incontrôlées. Ces 12 lignes dans le tableau de données résultant indiqué sur la figure 8 donnent une
distribution équilibrée des combinaisons de temps et de température dans tout l'espace expérimental indiqué
sur la figure 5. En analysant statistiquement les données résultantes et la dépendance du rendement sur le
temps et la température, nous n'avons aucune lacune dans nos connaissances. L'analyse des données
résultantes avec une régression multiple donne le tracé de surface et de contour en 3D représenté sur la
figure 7, qui montre que le meilleur endroit pour opérer est un temps de 500 minutes et une température de
550 degrés C.
8
Optimiser les processus avec la conception d'expériences
La figure 9 illustre que nous commençons généralement avec des données ou une théorie qui est analysée pour aider à évaluer
notre situation ou notre théorie, ce qui conduit généralement à plus de questions qui nécessitent la collecte de nouvelles données via
Si nous avons un grand nombre de facteurs et utilisons des approches OFAT, nous pouvons effectuer de nombreuses itérations ou
cycles d'apprentissage, parfois un produit ou un processus peut nous revenir de la production pour des cycles d'apprentissage
supplémentaires afin de résoudre un problème de produit ou de processus qui ne serait pas se produire si nous étions en mesure de
développer et de transférer des produits et des processus avec une meilleure compréhension. Les méthodes DOE classiques - telles
que développées par Fisher, affinées par Finney et industrialisées par Box - réduiront le nombre total de cycles d'apprentissage par
rapport à l'OFAT et augmenteront la prévisibilité de la R&D. Les avancées modernes du DOE, comme le dépistage définitif par Jones et
9
Apprêt technique
En extrayant les informations requises à partir de moins de cycles d'apprentissage et en le faisant de manière prévisible,
JMP pour DOE fournit les informations nécessaires pour prendre les bonnes décisions et augmente la prévisibilité d'obtenir
La figure 9 montre que l'apprentissage est progressif. Au début du processus d'apprentissage du DOE, vous pouvez avoir des
données existantes, auquel cas une modélisation statistique efficace de ces données peut aider à la conception du prochain DOE. En
particulier, l'analyse des données antérieures peut aider à décider des facteurs à inclure dans votre DOE et de la plage sur laquelle
Les données existantes peuvent être en désordre, ce qui rend difficile l'extraction correcte des informations sur les facteurs et les plages de
facteurs. Les problèmes de données en désordre peuvent inclure les facteurs liés (par exemple, une augmentation d'un X entraîne une
augmentation ou une diminution d'un autre X); certaines cellules de données peuvent être enregistrées de manière incorrecte; d'autres
cellules peuvent être vides ou manquantes. La découverte statistique JMP garantit que vous pouvez extraire du sens de vos données en
désordre pour identifier les facteurs potentiels et les plages de facteurs. Intégré aux méthodes DOE modernes, nous réduisons le temps
Un fournisseur de produits chimiques spécialisés de pigments pour les fabricants d'écrans à cristaux liquides (LCD) a du mal à fabriquer
suffisamment de pigments selon les spécifications requises pour répondre à la demande des clients. Pour obtenir des affichages nets, les
particules de pigment doivent être broyées à moins de 200 nanomètres, et le temps nécessaire pour ce faire est extrêmement variable.
L'étape de broyage est énergivore et constitue un goulot d'étranglement, et le long temps de broyage entraîne des coûts énergétiques
excessifs et affecte le débit. L'entreprise a besoin d'un processus plus rapide ou d'équipements de fraisage supplémentaires pour
La figure 10 montre une tendance à la hausse dans le temps de broyage à moins de 200 nanomètres pour les lots de
production récents de pigment. Pour éviter le coût en capital de l’ajout d’équipements de fraisage supplémentaires, nous
devons réduire le temps d’usinage à moins de cinq heures, ce qui semble être un défi; aucun des lots précédents n'a atteint
cet objectif.
dix
Optimiser les processus avec la conception d'expériences
L'OFAT a été utilisé pour développer le processus au départ, mais comme le processus prend trop de temps, l'entreprise doit répéter
les travaux de développement antérieurs pour essayer d'apprendre à accélérer le processus. En plus du coût de répétition des cycles
d'apprentissage antérieurs, le processus actuel entraîne un coût énergétique élevé en raison du long temps de fraisage et ne fournit
pas suffisamment de matière pour répondre aux demandes des fabricants d'écrans LCD.
Si le processus de fraisage ne peut pas fonctionner à la vitesse requise de cinq heures ou moins pour fraiser
jusqu'à 200 nanomètres, la société devra acheter une deuxième fraiseuse, tout en tolérant le coût continu d'un
processus peu énergivore. Cela réduira la rentabilité, la disponibilité de capitaux pour investir dans d'autres
Le broyage est effectué dans un broyeur à billes horizontal. Il s'agit d'une chambre remplie de billes, à travers laquelle la
dispersion de pigment passe. Les billes dans la chambre sont agitées à grande vitesse pour broyer les particules de
pigment.
11
Apprêt technique
L'analyse des données des 17 cycles de production précédents à l'aide d'une forêt bootstrap a identifié les principaux facteurs à
Le jugement technique a indiqué que la température de sortie [Temp (Out)] est corrélée avec Temp (Pot) et ne peut pas
être le moteur de la variation du temps de broyage. Temp (Out) a donc été exclu du DOE. P1 a également été exclu, et
un point de coupure à Temp PreMix a été utilisé en fonction de la nécessité de limiter le coût total de l'expérimentation.
Les entrées de Temp PreMix et plus sur la figure 11, à l'exception de Temp (Out) et P1, ont été incluses dans le DOE.
Un plan de dépistage définitif en sept facteurs a été conçu, qui a abouti à 17 combinaisons DOE. Cela a été considéré
comme le moyen le plus efficace de progresser, car il permet de rechercher les facteurs critiques, et - à condition que
- puis les effets interactifs et non linéaires peuvent être modélisés pour optimiser le processus sans avoir besoin
d'expérimentation supplémentaire.
La figure 12 contient la feuille de calcul remplie pour le plan de dépistage définitif à 17 essais en sept facteurs. La
figure 13 montre le profileur et le tracé 3D du modèle statistique résultant du DOE. Seuls trois des sept facteurs ont
eu un effet important sur le temps de broyage à 200 nm - Temp (Pot),% Perles et% Pigment.
Les paramètres de ces trois facteurs nécessaires pour minimiser le temps de broyage à 200 nm sont également indiqués sur la figure
13: Temp (Pot) de 50 C,% de billes de 68,8 et% de pigment de 13,5 avec un temps de broyage prévu de 2. 6 heures (intervalle de
confiance à 95% de 2 .2 à 3 .0 heures). Trois cycles de confirmation à ces paramètres ont permis de vérifier que le temps de fraisage à
200 nm était désormais bien inférieur à la limite supérieure de cinq heures (voir figure 14).
12
Optimiser les processus avec la conception d'expériences
Figure 12: Feuille de travail remplie pour la conception définitive du dépistage en sept facteurs
13
Apprêt technique
Sommaire
L'exploration des données des données antérieures a fourni les variables à entrer dans un plan de sélection définitif, qui a fourni un
plan expérimental efficace. La modélisation statistique des données obtenues a permis d'identifier une solution permanente. Le
problème a été résolu rapidement, économisant des centaines de milliers de dollars sur le budget de développement et renforçant la
crédibilité du site en tant qu'endroit pour une fabrication rentable et de grande valeur.
Un fabricant de semi-conducteurs a rencontré des problèmes lors du fonctionnement d'un procédé de dépôt chimique en phase
vapeur à basse pression (LPCVD) dans un tube de four pour fournir une nouvelle spécification de produit. Il traite quatre lots de
Pendant le processus, une nouvelle couche de nitrure de silicium est déposée sur chaque tranche, dans le but que chaque
tranche reçoive du nitrure de silicium d'épaisseur cible uniforme et d'indice de réfraction. Le processus fonctionne en chauffant
le tube du four et en faisant circuler les gaz d'une extrémité du tube à l'autre, en passant sur et entre les tranches. Il est exécuté
selon une recette qui contrôle des éléments comme le taux de chauffage, la température, les débits et les pressions de gaz.
Le processus est surveillé avec quatre plaquettes de test, une par lot pour chaque exécution du processus. Chaque tranche de test a 49
emplacements de mesure à l'intérieur de la tranche. La figure 15 montre un tracé de l'épaisseur du film et de l'indice de réfraction pour
chaque tranche d'essai. L'axe des x identifie l'ID de l'analyse et l'ID de la plaquette de test au sein de l'analyse. L'axe des y représente la
valeur de l'épaisseur du film ou de l'indice de réfraction pour chacun des 49 emplacements de mesure dans chaque tranche de test.
Le principal problème avec l'épaisseur du film est qu'il n'est pas centré dans la fenêtre de spécification, ce qui fait que chaque
tranche est hors spécifications. Il y a peu de variation de tranche à tranche et une variation intra-tranche modérée (par rapport
à la plage de spécifications). L'indice de réfraction n'est pas non plus centré dans la fenêtre de spécification, présente une
variation de tranche à tranche et une faible variation intra-tranche (par rapport à la plage de spécifications). Les approches de
14
Optimiser les processus avec la conception d'expériences
Continuer avec l'OFAT se traduit par des solutions inefficaces et des travaux répétés. L'incapacité à résoudre le problème du tube du four
entraîne un faible rendement des dispositifs fonctionnels souhaités en fin de ligne. L'entreprise n'a pas été en mesure de produire
suffisamment d'appareils de la fonction requise avec l'équipement existant. À moins que le processus ne puisse être fait pour livrer de
manière cohérente des produits conformes aux spécifications, ils devront acheter de l'équipement supplémentaire. Cette approche signifie
également que nous pouvons nous attendre à continuer de produire de nombreux appareils à fonctionnement inférieur qui coûtent moins
cher. L'impact commercial est une baisse de la rentabilité et de la disponibilité de capitaux pour investir dans d'autres projets.
Avant de concevoir une expérience pour comprendre les facteurs déterminants de l'épaisseur et de l'indice de réfraction du nitrure
de silicium, l'ingénieur des procédés voulait comprendre le modèle de variation du nitrure de silicium et de l'indice de réfraction au
sein de la tranche, entre les tranches d'un lot et entre les lots. Pour ce faire, il a produit un treillis de wafermap comme illustré sur
la figure 16. Chaque colonne du treillis graphique représente une tranche de test dans un cycle de production et une ligne dans le
treillis représente un cycle de production. L'intersection d'une ligne et d'une colonne à l'intérieur du treillis est une tranche, et la
valeur de la mesure de test à chacun des 49 emplacements de test à l'intérieur d'une tranche est représentée par un cercle coloré.
15
Apprêt technique
Dans le cas de l'épaisseur du nitrure de silicium, il y a peu de variation entre plaquettes et entre coulées. Le composant clé
de la variation est à l'intérieur de la tranche, et un motif radial est illustré. Les mesures d'épaisseur sont les plus faibles au
bord extérieur (zone externe) de la plaquette, les mesures d'épaisseur les plus élevées lorsque nous nous déplaçons vers
l'intérieur (zone 2). L'épaisseur diminue lorsque nous nous dirigeons vers la zone 1 et diminue encore au centre. L'épaisseur
est déposée avec un motif radial (similaire à un motif de vagues émanant du centre d'une tranche).
Le treillis de wafermap d'indice de réfraction indique une certaine variation entre les wafers au sein de l'analyse et la variation entre les
En se basant sur les modèles de variation intra-tranche, entre tranche et inter-série, l'ingénieur processus a défini
les réponses (sorties) à mesurer et à optimiser en tant qu'épaisseur moyenne au centre, zone 1, zone 2 et zone
externe avec indice de réfraction moyen.
16
Optimiser les processus avec la conception d'expériences
Celles-ci sont résumées dans la figure 17 avec les facteurs (intrants) à faire varier dans le DOE.
Un plan de dépistage définitif en neuf facteurs a été conçu, qui a abouti à 21 combinaisons DOE. Cela a été considéré
comme le moyen le plus efficace de progresser, car il permet de rechercher les facteurs les plus importants. Si trois
facteurs ou moins sont importants, les effets interactifs et non linéaires peuvent être modélisés pour optimiser le
La figure 18 contient la feuille de calcul remplie pour le plan de dépistage définitif en 21 séries de neuf facteurs.
La figure 19 montre le profileur du modèle statistique résultant du DOE. Seuls trois des neuf facteurs ont eu un
effet important sur les cinq réponses - temps de dépôt, température et pression.
Figure 18
Figure 19
17
Apprêt technique
Les paramètres de ces trois facteurs nécessaires pour centrer les cinq réponses dans leur plage de spécifications sont
La nouvelle recette de processus pour le temps de dépôt, la température et la pression a été mise en œuvre avec précaution
au début et validée après avoir observé que trois cycles de production ont livré des plaquettes toutes dans les spécifications.
La figure 20 confirme l'amélioration des 20 premiers cycles de production avec la nouvelle recette. L'épaisseur du film est
centrée très près de la cible, et aucune des mesures dans une tranche n'est proche des limites de spécification.
Le procédé est donc hautement capable de déposer de manière cohérente du nitrure de silicium à l'épaisseur requise. L'indice de
réfraction n'est pas tout à fait centré et la variation de tranche à tranche est évidente. Cependant, toutes les mesures d'indice de
réfraction se situent bien dans les limites de spécification, ce qui signifie que le processus est hautement capable en ce qui
concerne l'indice de réfraction. Bien qu'il soit possible d'améliorer davantage l'indice de réfraction, cela présente peu d'avantages.
18
Optimiser les processus avec la conception d'expériences
Sommaire
L'exploration des données antérieures a permis de définir les variables de sortie à optimiser avec DOE. Une conception de criblage
définitive a fourni un plan expérimental efficace et efficient permettant de fournir les données nécessaires pour comprendre le
processus de tube de four. La modélisation statistique des données obtenues a fourni une solution qui garantissait que les futures
plaquettes ont les propriétés souhaitées pour l'épaisseur du nitrure de silicium et l'indice de réfraction. D'autres améliorations sont
Le problème a été résolu rapidement et de manière permanente, ce qui a permis d'économiser des centaines de milliers de dollars en
budget de développement en supprimant la nécessité de cycles d'apprentissage désormais redondants qui sont généralement requis
avec OFAT. L'entreprise a assuré l'approvisionnement en produits, permettant des prévisions de ventes et économisé des millions de
Conclusion
Dans un souci de concision, deux exemples seulement ont été présentés. Si vous êtes en mesure d'expérimenter ou d'intervenir
activement dans votre processus, vous pouvez également utiliser DOE pour créer les données dont vous avez besoin pour modéliser
statistiquement votre processus et améliorer la compréhension réelle. Cet article a tenté d'expliquer:
• Comment présenter et communiquer les modèles et les connaissances qui en découlent du DOE à d'autres parties prenantes.
19
À propos de SAS et de JMP
JMP est une solution logicielle de SAS qui a été lancée pour la première fois en 1989. John Sall, co-fondateur et vice-président exécutif de SAS, est l'architecte en chef de JMP. SAS est le
leader des logiciels et services d'analyse commerciale et le plus grand fournisseur indépendant sur le marché de l'intelligence d'affaires. Grâce à des solutions innovantes, SAS aide les clients
de plus de 75 000 sites à améliorer leurs performances et à générer de la valeur en prenant de meilleures décisions plus rapidement. Depuis 1976, SAS offre à ses clients du monde entier LE
POUVOIR DE SAVOIR ®.