Vous êtes sur la page 1sur 13

CONTROL ESTADÍSTICO DE PROCESOS

INTRODUCCIÓN

Los resultados de los procesos de fabricación o de prestación de servicios son fluctuantes. La fluctuación o variación resultante, es
consecuencia de la interacción de todos los factores y condiciones en que funciona el proceso.

En general, todo proceso productivo es un sistema formado por personas, equipos, materiales, sistemas de medición, métodos y
condiciones de trabajo (las 6M’s). El proceso genera una salida (output), que es el producto que se quiere fabricar. La calidad del
producto fabricado está determinada por sus características de calidad, es decir, por sus propiedades físicas, químicas, mecánicas,
estéticas, durabilidad, funcionamiento, etc. que en conjunto determinan el aspecto y el comportamiento del mismo. El cliente quedará
satisfecho con el producto si esas características se ajustan a lo que esperaba, es decir, a sus necesidades y expectativas previas.

Son múltiples las características de calidad de un producto. Pero no todas tienen el mismo impacto sobre la calidad del bien o del
servicio; existen algunas características que son críticas para establecer la calidad, en razón a que están directamente relacionadas
con requisitos del cliente y otras partes interesadas. Normalmente se realizan mediciones de estas características y se obtienen datos
numéricos. Si se mide cualquier característica de calidad de un producto, se observará que los valores numéricos presentan una
fluctuación o variabilidad entre las distintas unidades del producto fabricado. Por ejemplo, si la salida del proceso son frascos de
mayonesa y la característica de calidad fuera el peso del frasco y su contenido, veríamos que a medida que se fabrica el producto las
mediciones de peso varían al azar, aunque manteniéndose cerca de un valor central.

El valor de una característica de calidad es un resultado que depende de una combinación de variables y factores que condicionan el
proceso productivo. Por ejemplo, en el caso de la producción de mayonesa es necesario establecer que cantidades de aceite, huevos
y otras materias primas se van a usar. Hay que establecer a qué velocidad se va a agitar la mezcla y cuánto tiempo. Se debe fijar el tipo
y tamaño de equipo que se va a utilizar, y la temperatura de trabajo. Y como éstas se deben fijar muchas otras variables del proceso.

La variabilidad o fluctuación de las mediciones es una consecuencia de la fluctuación de todos los factores y variables que afectan el
proceso. Por ejemplo, cada vez que se hace un lote de mayonesa hay que pesar el aceite según lo que indica la fórmula. Es imposible
que la cantidad pesada sea exactamente igual para todos los lotes. También se producirán fluctuaciones en la velocidad de agitación,
porque la corriente eléctrica de la línea que alimenta el agitador también fluctúa. Y de la misma manera, de lote a lote cambiará la
cantidad pesada de los demás componentes, el tiempo de agitación, la temperatura, etc. Todos estos factores y muchos otros
condicionan y determinan las características de calidad del producto.

Puesto que la variabilidad solo puede describirse en términos estadísticos, los métodos estadísticos juegan un papel central en el
control y mejoramiento de la calidad. Cuando se aplican métodos estadísticos en el control de la calidad, es común clasificar los datos
sobre las características de calidad como variables o atributos. Los datos de variables se obtienen por medición y por consiguiente
toman valores continuos. Por otra parte, los datos de atributos generalmente se obtienen por conteo y solo toman valores enteros.
Se estudiarán aquí las herramientas estadísticas que se utilizan para el control estadístico de procesos con ambos tipos de datos.

En ésta, la segunda parte del módulo de “Gerencia de Procesos” se aborda la aplicación de herramientas estadísticas al estudio del
comportamiento de las características de calidad resultado de los procesos de fabricación o de prestación de servicios, lo que
corresponde a la esencia del control estadístico de procesos. El desarrollo está organizado en tres partes. En la primera, se plantean
algunas consideraciones generales sobre el significado de los términos que están directamente relacionados con el tema objeto de
estudio; es decir, calidad, control, proceso y estadística. La segunda y tercera, se dedican al análisis de la variabilidad natural de un
proceso y determinar cuál será su desempeño respecto a las especificaciones del producto.

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


ETAPAS DEL CONTROL ESTADÍSTICO DE PROCESOS - C. de C. Variables

1. Comprender: la organización y su contexto, el SGC y el proceso.


2. Fase preparatoria o Plan de recolección de datos:

2,1 Selección de la característica que será controlada


2.2 Identificación del estándar de desempeño
2.3 Sistema de medición: unidad de medida, instrumentos y métodos de medición
2,4 Puntos de control: Lugares donde se tomarán las muestras
2.5 Tamaño de cada muestra, n
2.6 Método de muestreo
2.7 Frecuencia del muestreo
2.8 Formato para registro de resultados

3 Recolectar los datos: Tomar la muestra, efectuar la medición y registrar los datos.
4 Determinar la conformidad con los requisitos.
5 Acción: sobre el producto conforme, sobre el producto no conforme y sobre las no conformidades.
6 Analizar los datos estadísticamente: Análisis de la variabilidad de los resultados del proceso, para determinar:
 La forma como se distribuyen los datos
 La estabilidad del proceso
 La capacidad del proceso para cumplir con las especificaciones

CONSIDERACIONES SOBRE LAS MUESTRAS PARA EL CEP (SPC)

Para analizar el comportamiento del proceso, se toman muestras de producto fabricado y se realizan ensayos para determinar el valor
de una característica de calidad seleccionada previamente. Desde el punto de vista del control estadístico, es conveniente incluir la
etapa de muestreo y ensayo dentro del proceso mismo.

Cualquier modificación en las condiciones del proceso (modificación en el equipo, cambio de materias primas, etc.) conceptualmente
debe considerarse como que se trata de otro proceso, diferente del anterior.

El conjunto de todos los resultados de mediciones que pueden obtenerse es nuestro universo o población. Cualquier subconjunto de
mediciones extraído del universo constituye una muestra. Con respecto al concepto de universo o población, cuando se aplica a
resultados de mediciones en un proceso, es necesario puntualizar lo siguiente: La población o universo de resultados es el conjunto
de datos que se obtuvieron hasta ese momento más aquellos que se obtendrían si el proceso continuara funcionando siempre bajo
las mismas condiciones. Esto se conoce como Universo Hipotético de mediciones de la característica de calidad.

En relación con las muestras para el control estadístico de procesos son pertinentes las siguientes consideraciones:

Cómo tomar las muestras

Un principio general que gobierna la obtención de las muestras es que estas deben escogerse de tal manera que permitan la máxima
posibilidad de similitud interna u homogeneidad dentro de cada muestra, y la máxima oportunidad de variación entre muestras
consecutivas.

En segundo lugar, las muestras deben reflejar el orden cronológico en que se desarrolla la producción. A diferencia de la estadística,
que no requiere que se conserve o se conozca el orden cronológico en que se han obtenido los datos para su análisis, éste es de vital
importancia en el control estadístico de calidad, puesto que nos facilita conocer las causas asignables de variación cuando estas se
presentan.

De tercer lugar, las muestras deben obtenerse en aquellos puntos o momentos del proceso que correspondan a un sistema único de
causas de fluctuación. Por ejemplo, cuando tenemos un conjunto de diferentes máquinas efectuando la misma operación. Cada una

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


de ellas puede constituir un sistema de causas diferentes. La misma consideración podemos hacerla cuando se trata de un molde con
diferentes cavidades, de diferentes operarios, de diferentes turnos de trabajo, de diferentes clases de materias primas, de diferentes
posiciones de un material en un recipiente, de diferentes condiciones de temperatura, humedad, presión, etc.
En todos los casos debemos buscar que los elementos que componen una misma muestra hayan sido producidos esencialmente bajo
las mismas condiciones. Esta homogeneidad de la muestra permitirá la máxima sensibilidad de las cartas de control.

Teniendo en cuenta los criterios anteriores algunos enfoques que pueden utilizarse para obtener las muestras, son los siguientes:

a. En instantes previamente determinados. Los componentes de la muestra consistirán de unidades producidas consecutivamente
lo más cerca posible de cada instante determinado.

De esta manera, la homogeneidad de los componentes de la muestra es máxima y nos permite obtener el mejor estimativo posible
de la variación del proceso .

b. En períodos previamente establecidos. Según este enfoque, las unidades que han de constituir la muestra se seleccionarán
aleatoriamente de la producción acumulada en el período correspondiente. Reflejarán por lo tanto las variaciones que se hayan
producido durante cada período y serán menos homogéneas que las obtenidas mediante el enfoque anterior. Este método es
especialmente útil cuando el objeto de las cartas de control se relaciona con la aceptación o rechazo de productos o partes.

En ocasiones este procedimiento puede ser costoso y difícil de aplicar. En otras, puede ser cosa sencilla.

c- Cada cierto número de unidades producidas. Este método es especialmente útil para detectar cambios continuos o tendencias,
como ocurrirá en una máquina-herramienta por efecto del desgaste gradual del buril, o en un proceso químico por el
empobrecimiento paulatino de algún componente.

Tamaño de la muestra o tamaño del subgrupo, n

En la determinación del tamaño adecuado de la muestra intervienen factores de la teoría estadística, de costos y de oportunidad de
la información.

El tamaño de la muestra incide en la amplitud de los límites de control y, por lo tanto, en la sensibilidad de la carta para detectar
cambios en el proceso. A su vez, la sensibilidad de la carta puede modificarse con la frecuencia de las muestras con la utilización de
límites más amplios o más estrechos que 3 .

Los aspectos que debemos tener en cuenta para seleccionar el tamaño de la muestra, son los siguientes:
a. ¿Qué magnitud de cambio en el proceso nos interesa detectar? Esto a su vez, dependerá de la capacidad del proceso en relación
con las especificaciones que debe lograr.
b. El costo de obtener la información y

c. El costo de una decisión incorrecta. En cuanto a este costo, nos interesa minimizar el costo de los errores a que pueden conducir
las cartas de control, y que estadísticamente se denominen errores Tipo I (), y errores Tipo II ().

El error Tipo I consiste en que la Carta de Control indica que el proceso ha cambiado, sin ser esto cierto. Usando límites 3 y muestras
de cualquier tamaño, esta posibilidad es de 0.0027, o sea 27 veces cada 10.000 oportunidades, o 1 vez en 370 oportunidades.
Si deseamos reducir este riesgo, lo cual puede ser deseable cuando es muy costoso investigar una causa asignable que no existe
podemos usar límites 3.5 o 4.0. Por el contrario, si no es muy costosa la búsqueda de una causa asignable innecesariamente,
podemos utilizar límites 2.0 o 2.5, los cuales aumentan la sensibilidad de la carta, pero aumentan los riesgos Tipo II.

El error Tipo II consiste en que la Carta de Control indica que el proceso no ha cambiado cuando efectivamente si lo ha hecho. O sea,
consiste en la incapacidad de la Carta de indicar oportunamente cambios ocurridos en el proceso por la presencia de Causas especiales
de variación. Deseamos también que este error sea pequeño. Aquí interviene igualmente la consideración sobre la magnitud del
cambio ocurrido en el proceso el cual no deseamos dejar pasar inadvertido. En la medida en que aumentamos el tamaño de la muestra,
el error Tipo II será cada vez menor.

Frecuencia del muestreo

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


Entre mayor sea la frecuencia de las muestras, más oportunamente detectaremos los cambios ocurridos en el proceso. Pero a la vez
el costo de la inspección será mayor. De manera que en la determinación de la frecuencia óptima deberán intervenir factores
relacionados con su costo.

Aspecto tales como velocidad de la producción, ritmo de los cambios que la afectan duración y estabilidad de la producción así como
la oportunidad de la información para tomar acción correctiva, también deberán ser considerados.

La frecuencia puede fluctuar según las características del proceso. Cuando se inicia un proceso por ejemplo, la frecuencia puede ser
alta, y reducirse paulatinamente a medida que se estabiliza la fabricación y observamos que este fluye sin tropiezos.

Cuando se cambian factores que intervienen en la producción (materias primas, máquinas, personal, presión, temperatura, velocidad,
etc.) podemos obtener muestras muy frecuentes, e irlas espaciando a medida que conocemos la influencia de dichos factores.

En algunos casos, muestras pequeñas tomadas con bastante frecuencia pueden dar mejores resultados que muestras grandes muy
espaciadas. Por ejemplo, muestras de 4 o 5 unidades tomadas cada media hora pueden ser preferibles a muestras de 8 o 10 tomadas
cada hora, o de 20 tomadas cada 2 horas.

Si es muy alto el costo de inspección, la frecuencia de las muestras debe ser baja, así como su tamaño. En estos casos, y para
compensar la reducción en sensibilidad de la carta, podemos utilizar límites de control más estrechos, tales como 2.5, o 2.0, hasta
1.5. Estos límites de control más estrechos también pueden utilizarse en lugar de los convencionales 3, cuando el costo de buscar
una causa asignable inexistente es muy bajo. Por el contrario, cuando este costo es muy alto, pueden utilizarse límites 3.5 o 4.0.

La experiencia en todos los casos, nos será muy útil para determinar la frecuencia adecuada de las muestras.

Puntos de control

¿En dónde se deben tomar las muestras?

Las muestras deben ser tomadas en aquellos puntos del proceso que generan las características que deseamos controlar,
indudablemente en la elaboración de cualquier producto se generan un número apreciable de variables que podrían controlarse, sin
embargo, desde el punto de vista económico resultaría prohibitivo un control estadístico de calidad, por lo tanto, se deben escoger
aquellas características más significativas en la calidad del producto. Las normas técnicas, ya sea a nivel de empresa, nacional e
internacional, estas últimas en especial cuando se trata de productos de destino a la exportación, son de una gran ayuda en la
determinación de puntos de control y de las características críticas a controlar.

ANÁLISIS DE LA CAPACIDAD DE UN PROCESO

Realizar un análisis de la capacidad de un proceso, es realizar un análisis de la variabilidad natural o inherente de dicho proceso.

La capacidad del proceso se refiere a la mayor o menor uniformidad de los resultados del mismo. En este sentido, la variabilidad del
proceso es una medida de la uniformidad de la salida y existen dos formas de conceptualizar esta variabilidad:

1. La variabilidad en un tiempo especificado o variabilidad “instantánea”


2. La variabilidad con el tiempo o variabilidad de largo plazo.

Así que, cuando se habla de capacidad de un proceso se puede tener un enfoque de corto o largo plazo. La capacidad de corto plazo
se calcula a partir de datos tomados durante un tiempo suficientemente corto para que no haya influencia de factores externos sobre
el proceso; por ejemplo que no haya cambios importante de temperatura, turnos, operadores, lotes de materia prima, proveedores,
etc. Por lo tanto, esta capacidad representa lo mejor que el proceso puede hacer. Por otra parte, la capacidad de largo plazo, que es
la perspectiva que le interesa al cliente, se calcula con base en muchos datos tomados durante un período de tiempo suficientemente
largo como para que todos los factores o todas las causas que contribuyen a la variación estén presentes en el desempeño del proceso.

En la práctica la diferencia entre capacidad de corto y largo plazo es la forma como se estima la desviación estándar del proceso. Por
ejemplo, si se tienen 100 datos obtenidos a través de un muestreo, donde se tomaron 20 subgrupos o muestras de cinco datos cada
uno, entonces hay dos formas de calcular la desviación estándar. En la primera, solo se considera la variación dentro de los subgrupos
y refleja la variación de corto plazo. Bajo este enfoque la desviación estándar del proceso se estima a través del rango o la desviación
Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad
estándar de los subgrupos. La segunda consiste en calcular de manera directa la desviación estándar de todos los datos o desviación
estándar total (St). Por lo tanto, si se tiene una buena cantidad de datos (100 a 200) recolectados durante un largo período de tiempo,
entonces se tendrá una perspectiva de largo plazo en la cual se toma en cuenta la variación total, es decir la variación dentro de las
muestras y la variación entre las muestras. Este es el enfoque utilizado para análisis de la capacidad con base en el histograma y que
se denomina análisis de desempeño del proceso.

En el análisis de capacidad del proceso se utilizan tres técnicas principales: los histogramas o gráficas de probabilidad, las cartas de
control y los experimentos diseñados. Estudiaremos ahora la utilización del histograma junto con el coeficiente de sesgo y curtosis
para probar la hipótesis de que los datos provienen de un universo o población normal.

Sin embargo, antes de aplicar cualquier técnica estadística, es necesario establecer algunas hipótesis bajo las cuales se va a desarrollar
el análisis. En primer lugar, vamos a suponer que la característica de calidad (variable aleatoria) es continua y de distribución normal.
En segundo lugar, consideraremos que el proceso está bajo control estadístico, es decir que la variabilidad se debe solamente a un
sistema constante de causas aleatorias (no intervienen causas asignables).

EL HISTOGRAMA
Si se dispusiera de todos los datos del universo para la característica de calidad medida y se hiciera un histograma este permitiría tener
una idea exacta de la fluctuación natural del proceso. Como esto es imposible, es necesario tomar un cierto número de mediciones
(Mínimo 100-200) y efectuar con ellas un histograma de frecuencias.

El histograma es la representación gráfica de una distribución de frecuencias en intervalos. La grafica consiste en una serie de
rectángulos que tienen como base la amplitud de cada uno de los intervalos o clases y como altura la frecuencia absoluta o relativa
correspondiente.

La elaboración del histograma requiere de dos pasos básicos:

1. Organizar los datos en una distribución de frecuencias. Para este efecto:


a) Determine el rango o recorrido de la variable: R = Valor máximo – Valor mínimo.
b) Determine el número de intervalos o clases, K = Raíz cuadrada del número de datos.
c) Calcule la amplitud de clase, C = R’/K
d) Defina los límites de los intervalos
e) Clasifique los datos dentro de los intervalos y obtenga la distribución de frecuencias.

2. Dibujar el histograma, insertar los límites de especificación e interpretar

Cómo leer o interpretar un histograma:

El histograma es una importante herramienta estadística, que permite visualizar:


1) La forma de la distribución de frecuencias
2) La tendencia central, es decir hacia donde se concentran los datos.
3) La dispersión, es decir la mayor o menor concentración de los datos
4) La relación con los límites de especificación

En cuanto a la interpretación de la forma del histograma, Hitoshi Kume (2002) describe las siguientes formas típicas que pueden ser
usadas como referencia para analizar un proceso.

a) Tipo general. La forma es simétrica y de campana. El valor de la media se encuentra en el centro del rango de los datos; la
frecuencia es mayor en el centro y disminuye gradualmente hacia los extremos.

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


b) Tipo sesgo positivo o negativo. La forma del histograma es asimétrica. El valor de la media se localiza del lado de la cola más
larga. La frecuencia disminuye más bien brusca y gradualmente hacia la izquierda o hacia la derecha. Esta forma se puede
presentar cuando la característica de calidad que se controla, tiene un solo límite de especificación (superior o inferior).

c) Tipo peineta o multimodal. Cada tercera clase se tiene una frecuencia menor. Es un histograma que aparece en los casos en
los que se ha realizado un redondeo indebido de los datos, por lo que se han colocado en un intervalo que no correspondía.

d) Tipo precipicio a la izquierda o a la derecha. Esta forma del histograma también se denomina de acantilado, por cuanto se
presenta una suspensión o corte brusco en la caída de la frecuencia, ya sea a la izquierda, a la derecha o a ambos lados de la
distribución. Esta forma se puede presentar cuando previo a la toma de los datos se ha realizado una inspección 100% y se
han eliminado los artículos que no cumplen la especificación, a problemas con el equipo de medición, a errores en la medición
o a errores del inspector, cuando por ejemplo está predispuesto a no rechazar un artículo y si observa que este casi cumplía
los requisitos, entonces registra la medida límite aceptable.

e) Tipo planicie. La forma de la distribución de frecuencias es plana o achatada. Esto se debe a que los intervalos o clases tienen
más o menos la misma frecuencia y puede deberse a que los datos provienen de una mezcla de varias distribuciones que
tienen valores de la media diferentes.

f) Tipo doble pico o bimodal. En el histograma se observan claramente dos modas o picos que son evidencia de dos tendencias
centrales diferentes. Este tipo de distribuciones, reflejan la presencia de dos o más realidades o condiciones diferentes. En
general, una distribución bimodal o multimodal se debe a la presencia de fuentes de variación bien definidas que deben ser
identificadas y corregidas para mejorar la capacidad del proceso. Una forma de identificarlas es analizar por separado los
datos (estratificar) en función de los diferentes lotes de materia prima, proveedores, operadores, turnos o días de producción,
para así comparar los resultados y ver si hay diferencias significativas.

g) Tipo pico aislado. La forma es la de un histograma de tipo general con un pequeño pico aislado. Esta forma se presenta cuando
se incluye una pequeña cantidad de datos incorrectos, ya sea por error de medición, de registro, de transcripción o porque
la medición se realizó a un artículo o individuo que pertenecía a un proceso o población diferente. También puede deberse a
que en el momento en que se efectuó la medición en el proceso estaba ocurriendo una situación especial o fuera de lo común,
que debe ser investigada.

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


a) Tipo general b) Tipo sesgo positivo

c) Tipo peineta d) Tipo precipicio

e) Tipo planicie f) Tipo doble pico

g) Tipo pico aislado

Además del análisis con respecto a la forma de la distribución, tal como lo acabamos de describir, el histograma es especialmente útil
en el control estadístico del proceso, para visualizar la relación de la distribución de frecuencias con respecto a las especificaciones.
En este sentido y para el caso de especificaciones bilaterales o de dos lados, se pueden realizar dos comparaciones: la del centrado
del proceso con respecto al valor nominal de las especificaciones y la del ancho del histograma con respecto a la amplitud de las
especificaciones. Como resultado de estas comparaciones, se pueden presentar las siguientes situaciones generales:

a) Centrado con poca variabilidad


b) Centrado con mucha variabilidad
c) Descentrado con poca variabilidad
d) Descentrado con mucha variabilidad

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


Estratificación de histogramas

Cuando la forma del histograma es bimodal o multimodal, se recomienda clasificar y analizar los datos de acuerdo con las distintas
fuentes de donde provienen, como por ejemplo, por máquinas, lotes, proveedores, turnos u operadores, ya que cuando los datos se
estratifican según los factores que se cree pueden causar la variación, las causas de la variación se hacen más fácilmente detectables
y con ello se mejora la eficacia de las acciones para reducir la variación.
En conclusión, siempre que se realice un estudio de los resultados de un proceso para características de calidad variables es
recomendable utilizar el histograma y que este se interprete a detalle. De esta manera será posible detectar situaciones problemáticas
y plantear oportunamente, soluciones para las mismas. Será necesario, eso sí, tener la precaución de que para elaborar el histograma
se haya recolectado la cantidad apropiada de datos y elegido el número apropiado de intervalos o clases.

Limitaciones del histograma

De acuerdo con Humberto Gutiérrez Pulido y Ramón de la Vara (2009), aunque el histograma es una herramienta estadística
fundamental para analizar el desempeño de un proceso, tiene las siguientes limitaciones:

1) No toma en cuenta el tiempo en el que se obtuvieron los datos; por tanto, con el histograma es difícil detectar tendencias que
ocurren a través del tiempo. Por esta razón, no ayuda a estudiar la estabilidad del proceso en el tiempo, para lo cual se utilizan
las gráficas de control.
2) No es la técnica más apropiada para comparar de manera práctica varios procesos o grupos de datos; en este caso el diagrama
de caja o la gráfica de medias son más apropiados.
3) La cantidad de clases o intervalos influye en la forma del histograma, por lo que una buena práctica es que a partir del número
de clases inicial, se analice el histograma con un número de clases ligeramente menor o mayor, a fin de verificar el efecto sobre
la forma del histograma.

De manera complementaria a continuación se incluyen algunos histogramas y su interpretación en relación con las especificaciones:

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


Este es el histograma de una muestra y por lo tanto es sólo una estimación del verdadero histograma del universo. Si representamos
en las abscisas los Límites de Especificación del producto, podemos ver gráficamente si el proceso tiene aptitud (Capacidad) para
fabricar dicho producto.

Si el proceso tiene capacidad para fabricar el producto, entonces Cp > 1. En general se exige Cp > 1.30 para mayor seguridad.

Este coeficiente tiene el inconveniente de que para poder aplicarlo el centro de gravedad del rango de especificaciones debe coincidir
con la tendencia central de las mediciones del proceso. Cuando esto no ocurre se emplea el Cpk:

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


En el gráfico podemos observar que una buena parte del producto está por encima del Límite Superior de Especificación (LSE). Aun así
resulta Cp > 1, indicando erróneamente que el proceso tiene capacidad suficiente. En este caso se debe usar el segundo coeficiente
que muestra claramente que el proceso no tiene capacidad suficiente (Cpk < 1), tal como se puede observar en el gráfico.

El uso de un histograma para analizar la capacidad de un proceso tiene la ventaja de que se puede apreciar la forma de la distribución,
con lo cual se puede confirmar o rechazar la hipótesis de que la misma es normal. Pero el problema es que no se puede detectar la
presencia de patrones no aleatorios, con lo cual no es posible confirmar o rechazar la hipótesis de que el proceso está bajo control
estadístico. Si el proceso no está bajo control estadístico los resultados del análisis de la capacidad de proceso pueden llevar a
conclusiones equivocadas.

ANÁLISIS DE CAPACIDAD CON ENFOQUE DE LARGO PLAZO

En el análisis de la capacidad de un proceso con enfoque de largo plazo, generalmente se siguen las siguientes etapas:

1. Calcular los valores estimados para los parámetros estadísticos del proceso.
2. Calcular la capacidad del proceso, los límites de tolerancia natural e interpretar
3. Calcular los índices de desempeño del proceso e interpretar.
4. Calcular la fracción observada y estimada de producto no conforme.
5. Calcular el índice Z e interpretar.

ESTIMACION DE LOS PARAMETROS ESTADISTICOS DEL PROCESO

Al realizar una sucesión de mediciones de la característica de calidad sobre muestras del producto fabricado, encontramos que los
valores fluctúan alrededor de un valor central. Esto es lo que llamamos la fluctuación natural y esperable del proceso. Esta variación
de la característica de calidad medida se debe a un conjunto muy grande de causas que afectan el proceso, cuyo efecto individual es
pequeño y que actúan en forma aleatoria (Sistema constante de causas aleatorias). La fluctuación natural del proceso es inherente al
mismo y no puede eliminarse, sólo puede reducirse realizando modificaciones al proceso mismo, lo cual significa, como ya hemos
dicho, trabajar con otro proceso.

Los parámetros estadísticos que describen el comportamiento del proceso son la Media (µ) y la Desviación estándar (σ) de la población.
Si estos parámetros son desconocidos entonces deben estimarse con base en los resultados muéstrales, en este caso:

La media estimada µ̂ = 𝑋̅t y la desviación estándar estimada 𝝈


̂ = St

CAPACIDAD DEL PROCESO Y LIMITES DE TOLERANCIA NATURAL

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


La fluctuación natural de un proceso puede cuantificarse a través de la Desviación Standard del mismo, con la cual podemos calcular
los Límites de Tolerancia Natural del proceso. Se debe insistir en que estos límites no pueden fijarse voluntariamente, dependen del
proceso y de las variables no controlables del mismo.

Generalmente, se acostumbra tomar un rango de 6 sigmas en la distribución de la característica de calidad del producto como una
medida de la capacidad del proceso.

Así que, capacidad del proceso = 6σ

Por qué 6σ? La respuesta es que si la distribución del universo de donde provienen los datos es normal, entonces el 99.73% de los
datos caen dentro del intervalo: µ ± 3σ. Los valores correspondientes son los denominados Límites de Tolerancia Natural del proceso,
es decir:

Límite superior de tolerancia natural (UNTL) = µ + 3σ


Límite inferior de tolerancia natural (LNTL) = µ - 3σ

En el control estadístico de procesos, para características de calidad variables, es común utilizar tres tipos de límites: Los límites de
especificación, los límites de tolerancia natural y los límites de control. Los Límites de Especificación de un producto son fijados
voluntariamente por el cliente, por el fabricante o por alguna norma. Estos límites constituyen un requisito a cumplir por el producto
y no deben confundirse en ningún caso con los Límites de Control o con los Límites de Tolerancia Natural del proceso.

INDICES DE CAPACIDAD DEL PROCESO

Los índices de capacidad permiten cuantificar la aptitud del proceso para cumplir con determinadas especificaciones. Para calcularlos
se relaciona o compara la variación permitida por las especificaciones con la fluctuación natural del proceso.

Montgomery (2004) menciona que en 1991 se constituyó el Grupo de Acción de la Industria Automotriz (AIAG, por sus siglas en
inglés). Este grupo estaba integrado por representantes de la Ford, General Motors, Daimler/Chrysler y por la, en ese entonces,
American Society for Quality Control. Uno de sus objetivos era estandarizar los requerimientos para los reportes de los proveedores
y, en general, de la industria. El AIAG recomienda usar los índices de capacidad del proceso Cp y Cpk cuando el proceso está bajo control.
Cuando el proceso no está bajo control, recomienda utilizar los índices de desempeño del proceso P p y Ppk calculados con base en la
desviación estándar total.

El cálculo e interpretación de estos índices es la siguiente:

Capacidad y desempeño potencial: Relación entre la amplitud de las especificaciones y la variación natural del proceso (6σ)

Cp = USL-LSL Pp = USL-LSL
6 P 6 T
Cp se utiliza cuando el proceso está bajo control estadístico. Se calcula con base en la desviación estándar ponderada.

Pp se utiliza cuando el proceso no está bajo control estadístico. Para su cálculo se emplea la desviación estándar total.

Interpretación:

Si Pp ˂ 1 Proceso potencialmente no capaz (amplitud de las especificaciones pequeña frente a la variación natural del proceso)
Si Pp=1 Proceso potencialmente justamente capaz (amplitud de las especificaciones y variación natural iguales)
Si Pp > 1 Proceso potencialmente capaz (variabilidad natural pequeña frente a la amplitud de las especificaciones)

El índice de capacidad potencial tiene el inconveniente que no toma en cuenta el centrado del proceso. Simplemente compara la
amplitud de las especificaciones con la variación natural o capacidad del proceso. Así que podemos tener un proceso en donde el
índice de capacidad potencial es mayor que uno y sin embargo estar generando producto no conforme, como consecuencia de un
excesivo descentramiento. Por esta razón, en el caso de especificaciones bilaterales, se utilizan los índices de capacidad real que si
toman el centrado (la media) del proceso.

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


Capacidad y desempeño real: Relación de la diferencia de la media del proceso con el límite de especificación más cercano y la semi-
variabilidad natural del proceso (3σ)

C PL = CPU = USL-µ CPK = Mín {CPL , C PU }


µ -LSL
3 P 3
P
PPK = Mín {PPL , PPU }
PPL = µ-LSL PPU = USL-µ
3T 3 T

Interpretación:

Si Ppk ˂ 1 Proceso no capaz (amplitud de las especificaciones pequeña frente a la variación natural del proceso y/o descentrado
excesivo)
Si Ppk =1 Proceso justamente capaz (amplitud de las especificaciones y variación natural iguales)
Si Ppk > 1 Proceso no capaz (variabilidad natural pequeña frente a la amplitud de las especificaciones y/o poco descentrado)

En general, si Pp = Ppk (Cp = Cpk) el proceso está centrado en el punto medio de las especificaciones y cuando Ppk ˂ Pp (Cpk ˂ Cp) el proceso
está descentrado.

FRACCION DE PRODUCTO NO CONFORME

Fracción no conforme observada = Producción no conforme/Producción total

Fracción no conforme estimada = P(X ˂ LIE) + P(X > LSE), este cálculo se realiza con base en la distribución normal. En el caso de que
las especificaciones sean unilaterales, solo será necesario evaluar la fracción no conforme inferior o la fracción no conforme superior.

A manera de ilustración y referencia se incluyen a continuación dos tablas que muestran la relación entre la localización de los límites
de especificación y las PPM defectuosas.

PPM Distribución Normal centrada en el Objetivo T

PPM Distribución Normal con la media movida 1,5σ del Objetivo

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad


INDICE Z = Nivel Sigma del proceso

El índice Z es la métrica de capacidad de procesos de mayor uso en Seis Sigma. Se obtiene calculando la distancia entre la media del
proceso y los límites de especificación en unidades de desviaciones estándar. Para un proceso con doble especificación se tiene un Z
superior (Zs) y un Z inferior (Zi), que se calculan de la siguiente manera:

𝐿𝑆𝐸−µ µ−𝐿𝐼𝐸
𝑍𝑠 = Y 𝑍𝑖 =
𝜎 𝜎

La capacidad del proceso en términos del índice Z = Mínimo [Zs, Zi] y representa a cuántas desviaciones estándar se encuentra el
límite de especificación que está más cerca de la media.

Univ. Tecnológica de Bolivar Msc. Misael Cruz Monroy Producción y Calidad

Vous aimerez peut-être aussi