Vous êtes sur la page 1sur 46

Unidad 1

Apunte 1: Conceptos básicos

Visión histórica de la calidad

Después de la Segunda Guerra Mundial, surgieron dos corrientes importantes que han tenido un profundo
impacto en la calidad.

 La primera corriente es la revolución japonesa de la calidad. Antes de la Segunda Guerra Mundial la calidad
de los productos se percibía, en todo el mundo, como muy baja. Para ayudar a vender sus productos en mercados
internacionales, los japoneses dieron pasos revolucionarios para mejorar la calidad, con éxito legendario:
1) La alta administración se hizo cargo de llevar a cabo los cambios.
2) Todos los niveles y funciones recibían entrenamiento en las disciplinas de calidad.
3) Los proyectos de mejoramiento de la calidad se pusieron en marcha como un proceso continuo
 La segunda corriente fue el realce que se dio a la calidad del producto en la mente del público. Varias
tendencias convergieron en este énfasis: los casos de demanda sobre el producto, la preocupación sobre el medio
ambiente, algunos desastres, la presión de las organizaciones de consumidores y la conciencia del papel de la
calidad en el comercio, las armas y otras áreas de competencia internacional.
Estas corrientes, dieron como resultado un escenario cambiante en las condiciones de los negocios que
caen necesariamente en el parámetro de la calidad. Esta realidad se ha desarrollado a través de muchas
condiciones cambiantes que influyen:

 Competencia: antes mayor calidad significaba mayor precio. Hoy, los clientes pueden obtener alta calidad
y precios bajos. Una empresa deberá subir sus precios para cubrir los costos de baja calidad.
 Clientes que cambian: algunas empresas intentan entrar a los mercados industriales que exigen más sobre
el “sistema de calidad”.
 Mezcla de productos que cambia: cuando se cambia de una mezcla de volumen bajo con un precio alto, a
una de volumen alto con precio bajo, surge la necesidad de reducir los costos internos de baja calidad.
 Complejidad del producto: conforme los sistemas se vuelven más complejos, los requerimientos de
confiablidad de componentes son más rigurosos.
 Niveles más altos en las expectativas de los clientes: un ejemplo es la exigencia de la menor variabilidad
alrededor de un valor meta sobre la característica del producto aun cuando el producto cumpla con los
límites especificados. Otra expectativa es una mejor calidad en el servicio antes y después de la venta.

Las condiciones de los negocios en años pasados se apoyaban en enfoques más sencillos de calidad, por
ejemplo, la inspección el producto para controlar la calidad y la incorporación de los costos internos de baja
calidad en el precio de venta. Las condiciones cambiantes del comercio actual requieren nuevos enfoques si las
empresas quieren sobrevivir en los mercados competitivos del mundo.

Definición de calidad

Una definición breve es “la calidad de un producto está dada por la satisfacción del cliente”.

Un cliente es aquel a quien un producto o proceso impacta:


 Los clientes externos incluyen no sólo al usuario final sino también a los procesadores intermedios y a los
comerciantes. Otros clientes no son compradores, sino que tienen alguna conexión con el producto, como los
cuerpos regulatorios gubernamentales.
 Los clientes internos incluyen tanto a otras divisiones de la compañía a las que se proporcionan
componentes para un ensamble, como a otros a los que afecta.

Un producto es la salida de un proceso. Se pueden verificar 3 categorías: bienes, softwares y servicios

La satisfacción al cliente se logra a través de 2 componentes:

 Características del producto: estas tienen un efecto importante en los ingresos por ventas. En muchas
industrias, la población total de clientes se puede dividir según el nivel o grado de calidad deseada. Aumentar la
calidad del diseño generalmente se traduce en costos más altos.
 Falta de deficiencias: tiene un mayor efecto en los costos a través de la reducción de desperdicio,
retrabajo, quejas y otros resultados de ellas. La “falta de deficiencias” se refiere a la calidad de conformancia.
Aumentar la calidad de conformancia casi siempre significa costos menores.

En resumen: Calidad significa la satisfacción del cliente externo e interno. Los principales determinantes
de la satisfacción son las características del producto y la falta de deficiencias.

La función de calidad.

El logro de la calidad requiere de una amplia variedad de actividades. Conforme crece la empresa,
deberán crearse departamentos especializados para realizarlas. La función de calidad es la colección completa de
actividades a través de las cuales se logra la adecuación para el uso.

Existen actividades que son esenciales para comercializar cualquier producto nuevo o mejorado y siguen
una secuencia de eventos relativamente invariable o lineal. Algunas actividades se realizan dentro de la compañía,
otras las llevan a cabo personas como proveedores. Los elementos de la espiral están compuestos por las
actividades del enfoque tradicional (pequeña Q) y por la aplicación de los nuevos conceptos de calidad a todos los
productos y actividades funcionales (gran Q)

Todos los trabajos incluyen tres papeles:


 Cliente: recibe los insumos de información y bienes físicos
 Procesador: convierte los insumos en productos
 Proveedor: distribuye los productos a los clientes

Administración de la calidad.

Es el proceso de identificar y administrar las actividades necesarias para lograr los objetivos de calidad de
una organización. Se analiza de manera análoga a las finanzas, mediante el uso de tres procesos administrativos:
planeación, control y mejoramiento, lo cual proporciona un enfoque metódico.
Los elementos de la trilogía de calidad se interrelacionan. Por ejemplo, en el gráfico se observa el efecto
en la falta de deficiencia. Por ejemplo, el problema esporádico se detecta y el proceso de calidad toma medidas,
si es un problema crónico, se cambia el proceso.

Costos de la baja calidad.

Los costos de calidad son aquellos en los que incurre la empresa por tener baja calidad. Se resumen en 4
categorías:

a. Costos preventivos: costos en los que se incurre al mantener los costos de fallas al mínimo.
1. Planeación de la calidad: organización de las actividades que crean el plan global de calidad y los planes
especializados; preparación de procedimientos necesarios de comunicación.
2. Revisión de nuevos productos: costos de ingeniería de confiabilidad y actividades asociadas con la
introducción de nuevos diseños.
3. Control de procesos: costos de inspección y pruebas en proceso para determinar el estado del proceso
y no la aceptación del producto.
4. Auditorías de calidad: costos de evaluar las actividades del plan global de calidad.
5. Evaluación de la calidad del proveedor: costos de evaluar las actividades de calidad del proveedor antes
de la selección, de la auditoría de las actividades durante el contrato y esfuerzos asociados.
6. Entrenamiento: costos de preparación e implementación de programas de entrenamiento
relacionados con la calidad.

b. Costos de evaluación: costos en los que se incurre al determinar el grado de conformancia con los
requerimientos de calidad.
1. Inspección y prueba al recibir: costos de determinar la calidad de productos comprados
2. Inspección y prueba en proceso: costos de evaluación en proceso
3. Inspección y prueba final: costos de evaluación para la aceptación del producto.
4. Auditorías de la calidad del producto: costos de realizar auditorías de calidad sobre productos en proceso
o terminados.
5. Mantenimiento de la exactitud del equipo de prueba: costos de mantener los instrumentos y equipos de
medición calibrados.
6. Inspección y pruebas de materiales y servicios: costos de materiales y provisiones para el trabajo de
inspección y prueba, y los servicios generales cuando sean significativos.
7. Evaluación del inventario: costos de probar productos almacenados para evaluar la degradación.

c. Costos de fallas internas: costos asociados con defectos que se encuentran antes de transferir el producto al
cliente.
1. Desperdicios: mano de obra, material y costos generales de los productos defectuosos que no es
económico reparar.
2. Retrabajo: el costo de corregir los defectos para hacer que satisfagan las especificaciones.
3. Análisis de fallas: costos de analizar los productos no conformantes para determinar las causas.
4. Material de desperdicio y retrabajo: costo de desperdicios y retrabajo debido a productos no
conformantes recibidos de los proveedores.
5. Inspección del 100%: costos de encontrar unidades defectuosas en lotes de productos que contienen
niveles inaceptables de productos defectuosos.
6. Reinspección y volver a probar: costos de volver a inspeccionar y probar los productos que han pasado
por retrabajo u otra revisión.
7. Pérdidas de proceso evitables: costos de las pérdidas que ocurren aun con productos conformantes.
8. Rebajas: la diferencia entre el precio normal de venta y el precio reducido por razones de calidad.

d. Costos de fallas externas: costos asociados con defectos que se encuentran después de mandar el producto al
cliente.
1. Costos de garantía: costos de reemplazo o reparación de productos que están dentro de garantía.
2. Conciliación de quejas: costos de investigación y conciliación de quejas justificadas.
3. Material regresado: costos asociados con la recepción y reemplazo de productos defectuosos.
4. Concesiones: costos de concesiones hechas a los clientes cuando aceptan productos debajo de los
estándares o especificaciones

Como definición estricta, los costos de la baja calidad son la suma de los costos por fallas internas y
externas, son aquellos que se anulan si desaparecieran todos los defectos.

Los elevados costos de fallas internas señalan la necesidad de programas de planeación y producción,
mientras que los altos costos de fallas externas señalan la necesidad de programas de diseño de productos y
servicios a clientes.

𝑐𝑜𝑠𝑡𝑜 𝑑𝑒 𝑓𝑎𝑙𝑙𝑎𝑠
𝐶𝑜𝑠𝑡𝑜 𝑡𝑜𝑡𝑎𝑙 = + 𝑐𝑜𝑠𝑡𝑜 𝑑𝑒 𝑒𝑣𝑎𝑙𝑢𝑎𝑐𝑖ó𝑛 + 𝑐𝑜𝑠𝑡𝑜𝑠 𝑑𝑒 𝑝𝑟𝑒𝑣𝑒𝑛𝑐𝑖ó𝑛
𝑖𝑛𝑡𝑒𝑟𝑛𝑎𝑠 𝑦 𝑒𝑥𝑡𝑒𝑟𝑛𝑎𝑠

Costos resultantes Costos controlables


Pérdidas Inversiones
Objetivos de la evaluación

Las compañías estiman los costos de calidad por varias razones:

1) Cuantificar la dimensión del problema de calidad en términos de dinero mejora la comunicación entre los
administradores medios y la alta administración, y además revela otras áreas problemas que antes no
habían sido descubiertas.
2) Se pueden identificar las oportunidades más importantes de reducción de costos.
3) Se pueden identificar las oportunidades para reducir la falta de satisfacción del cliente y las amenazas
asociadas con poder vender el producto.

Relación del gran total con las medidas del negocio: la interpretación del gran total se hace con ayuda de la
relación de los costos de baja calidad con otras cifras con las que los administradores están familiarizados. Las
relaciones que tienen mayor impacto en la alta administración son:

1. Costos de calidad como porcentaje de ventas.


2. Costos de calidad comparados con la ganancia.
3. Costos de calidad como porcentaje de los costos de bienes vendidos.
4. Costos de calidad como porcentaje de los costos totales de manufactura.

Costos de calidad ocultos: Costos que pueden resultar en la subestimación de los costos de calidad. Incluyen:

1. Ventas potenciales perdidas. Se puede medir por medio de las órdenes canceladas.
2. Costos de rediseño por razones de calidad.
3. Costos de cambiar el proceso de manufactura debido a la falta de habilidad para cumplir con los
requerimientos de calidad.
4. Costos de cambio de software por razones de calidad.
5. Costos incluidos en los estándares. Es inevitable cierto nivel de defecto y este se encuentra incluido
en la tolerancia de los estándares.
6. Costos de manufactura adicionales debidos a los defectos. Incluyen a los costos adicionales por
espacio, inventario y tiempo extra.
7. El desperdicio no reportado por miedo a represalias o el que se carga sin identificarlo como tal.
8. Costos de procesos excesivos para lograr un producto aceptable.

Modelos económicos de la calidad de conformancia

El estudio de la distribución de los costos de calidad en la mayoría se puede explorar más usando los modelos:

 Costo de fallas: éstos son iguales a cero cuando el producto en 100% aceptable y se elevan a infinito
cuando el producto es 100% defectuoso.
 Costo de evaluación más prevención: estos son cero con 100% de unidades defectuosas y se elevan cuando
se acerca a la perfección. Sin embargo, la cantidad en la que aumentan difiere para los 2 modelos.
 Suma de las cuervas 1 y 2: Representa el costo total de la calidad por unidad aceptable de producto.
Este modelo representa las condiciones que prevalecieron durante gran parte del siglo
XX. “Evaluación + prevención” consistía en mucha evaluación y poca prevención. La
mayor parte de la evaluación la llevaban a cabo hombres falibles que limitan por
alcanzar la perfección con costos finitos. Así, el modelo muestra la curva de “costos de
evaluación más prevención” creciendo a infinito al acercarse a la perfección. En
consecuencia, la curva de “costo total” también tiende a infinito.
Este modelo representa las condiciones que surgieron en la última parte del siglo XX. Las
prioridades en la prevención aumentaron. La nueva tecnología redujo las fallas
inherentes en materiales y productos. La robótica y otras formas de automatización
redujeron el error de evaluación humano. En conjunto, estos desarrollos han dado como
resultado la habilidad de lograr la perfección a un costo finito.

Mientras que la perfección es una meta a largo plazo, no se puede concluir que la perfección sea la meta
más económica a corto plazo. En el primer modelo, la curva de costo total tiene un mínimo en un nivel anterior a
la perfección. La siguiente figura muestra esta curva de costo total dividida en 3 zonas. Por lo general, se puede
identificar la zona en la que se encuentra una compañía a partir de las razones de los costos de calidad que
prevalecen en las categorías principales como sigue:

Zona de proyectos de mejoramiento: ésta es la porción del lado izquierdo de la figura. Los costos por fallas
constituyen más del 70% de los costos de calidad totales, mientras que los costos de prevención son menores que
el 10% del total. En tales casos, existen oportunidades para reducir los costos de calidad totales mediante el
mejoramiento de la calidad de conformancia, reduciendo así los costos de baja calidad, en especial los de fallas.

Zona de altos costos de evaluación: ésta es la porción del lado derecho de la figura. Casi siempre se caracteriza
por el hecho de que los costos de evaluación exceden a los costos de las fallas. Hay oportunidades de reducir los
costos mediante: comparar del costo de los defectos detectados con el daño que causan si no se detectan; revisar
los estándares de calidad para ver si son realistas; evaluar una reducción en la inspección.

Zona de indiferencia: ésta es el área central de la figura. En estas zonas los costos de fallas significan alrededor de
la mitad de los costos de calidad mientras que los costos de prevención constituyen cerca del 10% de los costos
de calidad. En la zona de indiferencia se ha alcanzado el óptimo en términos de proyecto de mejoramiento de la
calidad, lo cual vale la pena seguir. El mejoramiento continuo siempre es deseable, pero los proyectos compiten
contra otras que valen la pena, aunque todavía no se encuentren en su nivel óptimo.
Apunte 2: Herramientas básicas para el control estadístico de procesos

1. Para la recolección de datos


a. Hojas de verificación: es una gráfica en la que se representan las veces que ocurre un determinado
evento en un período. Con ella comienza el proceso de analizar la
realidad que se hace tomando como base datos, no opiniones. Su
elaboración tiene dos etapas:
1- Diseñar: identificar exactamente el evento a evaluar, decidir
el periodo de toma de datos, diseñar un formato claro y con
espacio suficiente
2- Completar: llenar con atención, transcribiendo sin
alteraciones.

2. Presentan relaciones y que promueven el que la organización unifique sus puntos de vista
a. Diagrama de flujo: representación gráfica que muestra todos los pasos de un proceso
y la forma como éstos se relacionan entre sí. Para elaborarlo:
1- Se identifica el paso inicial y el término del proceso y se encierran en un óvalo.
2- Se identifican los pasos que se dan a partir del inicial y se transcriben en forma
descendente siguiendo una línea vertical, hasta llegar al término del proceso.
3- Los pasos que integran esta columna vertical:
 Se encierran en un rombo, si hay lugar a alguna alternativa (generalmente se transcribe
en forma de pregunta)
 Se encierran en un rectángulo si son acciones que deben realizarse en cualquier opción.
4- Puesto que los rombos encierran una pregunta, de ello se desprenden 2 flechas:
 La flecha vertical expresa que la contestación a la pregunta es afirmativa.
 La flecha horizontal expresa que la contestación es negativa y que, por tanto, hay que
llevar a cabo un subproceso que, al final de cuentas, conduzca a alguna acción que se
localiza en la columna vertical principal.

b. Diagrama de Pareto: se basa en la ley de Pareto: “El 20% de los problemas, causan el 80% de los dolores
de cabeza”. Se utiliza para identificar los problemas mas importantes (los mas frecuentes nos siempre son
los mas costosos), medir el impacto de cambios en un
proceso, etc. Para elaborarlo:
1- Seleccionar el área cuyos problemas se desean
identificar, los aspectos involucrados en el tema y el período
a estudiar.
2- Confeccionar la hoja de verificación
3- Se ordenan los datos de mayor a menor participación, de
izquierda a derecha con tantas columnas como problemas
identificados
4- Se puede trazar el porcentaje acumulado en un eje
secundario
c. Diagrama causa-efecto: fue desarrollado para representar la relación entre algún efecto y todas las
posibles causas que influyen en él. Para elaborarlo:
1- Identificar el problema o característica de calidad que se quiere analizar.
2- Dibujar una flecha que corra de izquierda a derecha. En la punta de ésta (a la derecha) se escribe el
problema o característica de la calidad.
3- Identificar los apartados principales dentro de los cuales se pueden
agrupar las diferentes causas. Estos apartados pasar a ser los títulos de
las líneas que caen diagonalmente sobre la flecha.
4- Escribir las diferentes causas en torno a las líneas diagonales.
5- Para interpretar el diagrama: ver cuáles son las causas que aparecen
más frecuentemente, reunir información para determinar la frecuencia
con la que ocurren dichas causas e
investigar hasta qué grado los integrantes del grupo están de acuerdo
en que ésas sean las causas más importantes.

d. Diagrama de dispersión: Con los diagramas de dispersión podemos ver cómo


se relacionan ambas variables entre sí. Esto es lo que se conoce como correlación.
Hay tres tipos de correlación: positiva, negativa y nula. Correlación positiva (una
variable aumenta y la otra también), negativa (una variable aumenta y la otra
disminuye) o sin correlación.

e. Análisis de campos de fuerza: método para identificar las razones


por las que se mantiene una situación dada. La gráfica adopta una la
figura T. El procedimiento para la construcción es el siguiente:
1- En la parte superior de la figura, se escribe la situación o
problema
2- En el sector izquierdo se expone las fuerzas conducentes, con una
flecha que apunta a la derecha.
3- En el sector derecho se transcribe las fuerzas de resistencia, con una flecha hacia la izquierda.

3. Resumen los datos en orden a una comunicación eficaz del contenido relevante de dichos datos

a. Histogramas: representación gráfica de una variable en forma de barras, donde la


superficie de cada barra es proporcional a la frecuencia de los valores representados. Sirven
para obtener un panorama general de la distribución de la población o muestra, respecto
a una característica, cuantitativa y continua.

b. Corridas: son diagramas que presentan los datos a través del tiempo o de una secuencia. Para elaborarlo:
1- Hacer la tabla de datos
2- Obtener el promedio aritmético
3- Construir un sistema de coordenadas, con el eje horizontal representando
el tiempo y el vertical, los valores de los datos.
4- Trazar el valor promedio de los datos y
5- Colocar los datos dentro del sistema de coordenadas, representándolos
mediante un punto, uniéndolos con líneas rectas.

c. Estratificación: herramienta estadística que clasifica los datos en grupos con


características semejantes. A cada grupo se lo denomina estrato. La misma
se hace con el fin de identificar el grado de influencia de determinados
factores o variables, en el resultado de un proceso. La situación en concreto
que va a ser analizada determina los estratos a utilizar

4. Además de lo anterior, permiten identificar si el proceso está bajo control estadístico o no


a. Gráficas de control: instrumento para detectar si la variación de los procesos amerita considerarlos bajo
Control Estadístico o no.

5. Herramienta que permite organizar las ideas


a. Diagrama de afinidad: se utiliza para sintetizar un conjunto más o menos numeroso de opiniones,
agrupándolas en pocos apartados o rubros. Para elaborarlo:
1- Cada una de las opiniones particulares se escribe en una única
ficha (fichas de tipo a, b, c, d)
2- Se agrupan las fichas que expresan la misma opinión, aunque
con diferentes palabras: opinión a y opinión b en un grupo; y
opinión c y d en otro grupo.
3- Se escribe en una ficha, de mayor tamaño que las anteriores, la
síntesis de las fichas que expresan opiniones semejantes sobre el
mismo tema (A para a y b, etc)
4- Cuando sea el caso debido a que todavía es posible reunir en un
único grupo los consensos del paso anterior, se escribe en una ficha
de tamaño todavía mayor, la síntesis de los rubros A y B, llegando
así a los pensamientos más generales que no pueden sintetizarse en
uno superior.

6. Herramientas que permiten organizar los pasos de un proceso


a. Diagramas de flujo

b. Diagrama de árbol: con este diagrama se obtiene una visión de conjunto de los medios mediante los
cuales se alcanza una meta. Procedimiento para elaborar un diagrama de árbol:
1- Se enuncia con la mayor claridad posible, la meta a alcanzar.
2- Se identifican los medios que conducen directamente a dicha meta.
3- Debido a que los medios identificados en el ítem anterior se convierten a su vez en metas a alcanzar, se
identifican los medios, mediante los cuales se alcanzar dichas metas, y así sucesivamente.
Calidad:
 “Totalidad de los rasgos y características de un producto o servicio que se sustenta en su habilidad para
satisfacer las necesidades establecidas o implícitas”. American Society for quality
 “Cumplimiento según especificaciones”. Crosby
 “Conjunto de cualidades que constituyen la manera de ser de una persona o cosas”. Academia Española
 “Grado en que un conjunto de características cumple con los requisitos”. ISO 9000-2000
 “Calidad es satisfacción del cliente”. William E. Deming

Gestión de calidad: actividades de la función administrativa de la empresa que determinen las políticas, objetivos
y responsabilidades relacionados con la calidad y se implanten a través de medios que la involucren.

Sistema de gestión de calidad: serie de actividades coordinadas que se llevan a cabo sobre un conjunto de
elementos (Recursos, Procedimientos, Documentos, Estructura organizacional y Estrategias) para lograr la calidad
de los productos o servicios que se ofrecen al cliente, es decir, planear, controlar y mejorar aquellos elementos
de una organización que influyen en satisfacción del cliente y en el logro de los resultados deseados por la
organización

Mejora continua: proceso de ayuda para aprender y mejorar, cambiar los elementos no controlables en
controlables. Se basa en dos conceptos principales:
 Mejora sistemática: Es el resultado de la utilización del método científico (que identificará la mejor opción
de acuerdo con los hechos) de las demás herramientas para la gestión de calidad total y una estructura para
guiar eficazmente los esfuerzos de trabajo.
 Mejora iterativa: La idea básica está centrada en el ciclo de volver a empezar trabajando en el siguiente
problema, o en la mejora adicional del proceso ya mejorado. Esto es lo que ocurre con el ciclo de Deming o
PDCA: Plan+Do+Check+Act.

Deming afirma que todo proceso es variable y cuanto menor sea la variabilidad del mismo mayor será la
calidad del producto resultante. Deming ofreció catorce principios fundamentales para la gestión y transformación
de la eficacia empresarial, con el objetivo de ser competitivo, mantenerse en el negocio y dar empleo.

1. Crear un propósito constante dirigido hacia la mejora de productos y servicios.


2. Adoptar la nueva filosofía para el rechazo de mano de obra poco calificada, productos defectuosos o servicios
malos.
3. No depender de la inspección masiva para controlar la calidad.
4. No adjudicar contratos basados en el precio.
5. Mejorar el sistema de producción y de servicio.
6. Instituir la capacitación en los procesos y métodos de entrenamiento modernos.
7. Instituir el liderazgo.
8. Eliminar el miedo.
9. Eliminar barreras entre las unidades de la organización.
10. Eliminar objetivos, consignas y metas numéricas para la fuerza de trabajo.
11. Eliminar cuotas numéricas y estándares de trabajo.
12. Eliminar barreras que impiden el sentimiento de orgullo por un buen trabajo.
13. Establecer vigorosos programas de educación y entrenamiento para todos los empleados.
14. Crear una estructura en la alta gerencia que se avoque con vigor a los 13 puntos anteriores
Instituto Argentino De Normalización Y Certificación (IRAM): instituto encargado de la normalización y
certificación en Argentina desde 1935. Sus actividades se engloban en: normalización, certificación, capacitación
y documentación. Tiene convenios con distintos organismos internacionales y con universidades.

Organización Internacional De Normalización (ISO): organismo encargado de promover el desarrollo de normas


internacionales de fabricación (de productos y servicios), comercio y comunicación para todas las ramas
industriales a excepción de la eléctrica y la electrónica. Su función principal es buscar la estandarización de normas
de productos y seguridad para las empresas u organizaciones a nivel internacional.
Las normas desarrolladas por ISO son voluntarias, ya que al ser un organismo no gubernamental no tiene
autoridad para imponer sus normas a ningún país.

ISO 9000 -Sistemas de gestión de la calidad


Fundamentos y vocabulario: Las normas proporcionan orientación y herramientas para las empresas y
organizaciones que quieren asegurarse de que sus productos y servicios cumplen consistentemente con los
requerimientos del cliente y que la calidad se mejora constantemente.

Principios de la gestión de calidad:


Principio 1: Enfoque al cliente. Las organizaciones dependen de sus clientes y por lo tanto deberían comprender
sus necesidades actuales y futuras, satisfacer sus requisitos y esforzarse en exceder sus expectativas.
Principio 2: Liderazgo. Los líderes establecen la unidad de propósito y la orientación de la organización. Ellos
deberían crear y mantener un ambiente interno, en el cual el personal pueda llegar a involucrarse totalmente en
el logro de los objetivos de la organización.
Principio 3: Participación del personal. El personal es la esencia de una organización y su total compromiso
posibilita el beneficio de la organización.
Principio 4: Enfoque basado en procesos. Un resultado deseado se alcanza más eficientemente cuando las
actividades y los recursos relacionados se gestionan como un proceso.
Principio 5: Enfoque de sistema para la gestión. Identificar, entender y gestionar los procesos interrelacionados
como un sistema, contribuye a la eficacia y eficiencia de una organización en el logro de sus objetivos.
Principio 6: Mejora continua. La mejora continua del desempeño global de la organización debería ser un objetivo
permanente de ésta.
Principio 7: Enfoque basado en hechos para la toma de decisión. Las decisiones eficaces se basan en el análisis
de los datos y la información.
Principio 8: Relaciones mutuamente beneficiosas con el proveedor. Una organización y sus proveedores son
interdependientes, y una relación mutuamente beneficiosa aumenta la capacidad de ambos para crear valor.

Objeto y campo de aplicación: describe los fundamentos de los sistemas de gestión de la calidad y define los
términos relacionados con los mismos. Esta Norma Internacional es aplicable a:
a) Las organizaciones que buscan ventajas por medio de la implementación de un sistema de gestión de la calidad.
b) Las organizaciones que buscan la confianza de sus proveedores en que sus requisitos para los productos serán
satisfechos
c) Los usuarios de los productos.
d) Aquellos interesados en el entendimiento mutuo de la terminología utilizada en la gestión de la calidad
e) Todos aquellos que evalúan o auditan el sistema de gestión de la calidad para determinar su conformidad con
los requisitos de la Norma ISO 9001
f) Todos aquellos que asesoran sobre el sistema de gestión de la calidad adecuado para dicha organización.
g) Quienes desarrollan normas relacionadas.
Enfoque basado en procesos
Proceso: actividad/es que utiliza recursos para transformar elementos de entrada en resultado. La
identificación y gestión sistemática de los procesos empleados en la organización y en particular las interacciones
entre tales procesos se conocen como "enfoque basado en procesos".
Para ISO 9000: Las partes interesadas juegan un papel significativo para proporcionar elementos de
entrada a la organización. El seguimiento de la satisfacción de las partes interesadas requiere la evaluación de la
información relativa a su percepción de hasta qué punto se han cumplido sus necesidades y expectativas.

Auditorias del sistema de gestión de calidad


Se utilizan para determinar el grado en que se han alcanzado los requisitos del sistema de gestión de la
calidad, evaluando su eficacia e identificar oportunidades de mejora.

 Auditorias de primera parte: auditoría Interna (autoevaluación) para determinar la conformidad del sistema
con los requisitos, así como su implantación y eficacia. Puede llevarse a cabo por personal de la misma
organización o contratado pero independientes del área a auditar.
 Auditorias de segunda parte: es un tipo de autoría externa en la que el cliente evalúa la organización. Tiene
como finalidad establecer la idoneidad de un proveedor para suministrar determinados productos o servicios.
 Auditorias de tercera parte: Un órgano certificador evalúa a la organización. Tiene como finalidad la
certificación del sistema.
La organización contrata al organismo certificador→ Preauditoría → Auditoria → Aprobación de los resultados→
Evaluaciones periódicas de revalidación

Certificación
Actividad que permite establecer la conformidad de una determinada empresa, producto o servicio con
los requisitos definidos en normas.
Documento de referencia Organismo Proceso
Norma (voluntaria) Organismo normalizador Certificación
y certificador
Reglamento (obligatorio) Administración pública Homologación

Documentación orientada a los procesos


1° nivel “Manuales de calidad”: Descripción del sistema político, objetivos y respuesta a requisitos aplicables.
2° nivel “Manuales de procedimiento”: Información detallada sobre las actividades (cómo, cuándo, dónde, qué,
por qué y quién).
3° nivel “Planos, instructivos, formatos, registros”: Proporcionan detalles técnicos sobre como hacer el trabajo y
registrar los resultados

Sistemas de gestión integrada→ Gestión de Calidad, Medio ambiente y Seguridad.


 CALIDAD: Reducción de defectos, garantiza a los clientes la eficiencia en la producción o servicio. (ISO
9001:2000)
 MEDIO AMBIENTE: Reducción de los efectos nocivos, garantiza a la sociedad mínimo impacto ambiental.
(ISO 14001:2004)
 SSO: Prevención de accidentes, garantiza al personal riesgo mínimo y seguridad de los productos y
servicios. (OSHAS 18001)

La interacción y sinergia entre estos tres aspectos de la gestión aumentan la eficacia y eficiencia y permiten
la mejor comprensión de los procesos de la empresa.
Política integrada: Misión y principios que la empresa se compromete a
cumplir.
Planificación: Plantear Objetivos, metas y programas. Para cumplir con los
requisitos de las normas se debe identificar los aspectos ambientales, los
riesgos y peligros, los procesos y sus interacciones.
Implementación y operación: recursos, funciones, responsabilidades,
autoridad, comunicación, documentación y control
Verificación: a) Seguimiento y medición indicadores de los procesos
operativos, de la calibración de los equipos y de las emisiones ambientales; b)
Control del cumplimiento legal de no conformidad, acción correctiva y acción
preventiva y auditorias de primera, segunda y tercera parte.
Revisión por la dirección: nivel gerencial determinando la necesidad de
cambios basándose en resultados de las auditorias.
Unidad 2: Control de procesos

Apunte 1: Yu Chuen-Tao

Atributos y variables:

- Características verificables: “atributos” como: roturas, grietas, poros, golpes.


- Características medibles: “variables” como: composición química, estructuras mecánicas, dimensiones.

Factores que afectan la calidad:

a) Mano de obra
b) Materiales
c) Maquinarias y métodos.

La importancia de cada factor sobre la calidad depende del papel que desempeña en el proceso de
fabricación. En muchos casos, el operario puede controlar los otros 2 factores que afectan la calidad, porque si el
material es defectuoso o la máquina funciona mal, el operario debe arreglar o avisar a su jefe. Por eso la conciencia
de calidad del operario es un elemento decisivo para la calidad.

Responsables de la calidad: es deber del que trabaja el producto controlar la calidad al mismo tiempo. La buena
calidad no depende de una buena inspección por parte de los inspectores del control, sino de una buena
fabricación.

Si el operario no cumple con su deber en cuestiones de calidad, la responsabilidad recae en su jefe directo,
el maestro. Y así sucesivamente hasta el director de la empresa.

El Control no es más que un órgano staff que asesora y ayuda a la Dirección o a la Fabricación proporcionándole
la información a su debido tiempo sobre las causas perturbadoras de la calidad. Es decir, el Control se limita a una
labor de información y carece de autoridad para modificar el proceso de fabricación.

El Departamento de Control de Calidad es un órgano staff que se encarga de coordinar los esfuerzos de los
diversos departamentos para mantener y mejorar la calidad a un nivel lo más económico posible. Las tareas a
realizar son:

- Tarea preventiva: estudio de la capacidad del proceso, gráficos de control en el proceso y para el nivel de
calidad, planes de muestreo para la aceptación de la calidad.
- Tarea de conformidad: inspección en la recepción, en el proceso y en los productos acabados;
comprobación de los calibres y medios de ensayos; pruebas y ensayos.
- Tarea correctiva: estudio de reclamaciones; revisión de la calidad para su mejora; búsqueda de fallos;
proporcionar los datos con su correcta interpretación.
- Tarea de seguridad: control de salida de productos; estudio económico del costo de calidad; comparación
de la calidad con otras empresas, precisión en la inspección; adiestramiento del personal.
La Inspección es un acto de comprobación, por la cual se verifican los productos terminados en una fase
determinada, según las especificaciones requeridas. Esta verificación se puede realizar mediante instrumentos de
medición, ensayos de laboratorio, visualmente, etc. La inspección tiene que cumplir dos misiones:

 Proporcionar la base para una decisión respecto al “proceso de fabricación”, con vistas a la futura
producción; por ejemplo, decidir si el proceso es bueno.
 Proporcionar una base para una decisión respecto al producto ya elaborado y así, decidir si ese artículo o
lote de productos debe ser admitido;

Existen dos clases de inspección:

- Directa: es el control directo por parte de los inspectores del proceso de fabricación. El medio más eficaz
de analizar los resultados de la calidad es el gráfico de control. El inconveniente de esta inspección está
en que el operario no comprende el gráfico de control según sus conocimientos y, por lo tanto, desconoce
la calidad que él fabrica, mientras que se siente controlado y vigilado.
- Indirecta: consiste en que el control de proceso es llevado por el mismo operario, quedando la
comprobación para el inspector. El operario juzga la calidad y modifica el reglaje si es necesario. Este
control es más económico y eficaz si se les da a los operarios los conocimientos de la técnica y medios
suficientes.
Como la inspección no intervine en el control del proceso, el juicio sobre la calidad se formará mediante
el muestreo de aceptación de material, aceptando o rechazando el lote como si la mercancía viniese del exterior
de la fábrica.

Relación entre el control, la oficina técnica y la fabricación

La Oficina Técnica establece las especificaciones y define las características del producto. La sección de
fabricación produce el artículo con arreglo a las normas establecidas por la oficina técnica. El control comprueba
el artículo fabricado para verificar si está conforme o no, con las especificaciones correspondientes. En caso de
que la fabricación no hay cumplido dichas especificaciones, el control tiene el deber de saber por qué: si es debido
a la negligencia del operario o a la capacidad de proceso. Si es por este último, el control debe dar parte a la oficina
técnica para que ésta amplíe las tolerancias. En algunos casos, no es posible modificar las tolerancias por las
exigencias del cliente y entonces el control de calidad debe avisar al control de producción para que se le designe
otra máquina o se modifique el método de trabajo. En el caso de que no exista posibilidad de cambiar la máquina
o el método, se necesitará una selección después de la fabricación y esto es un proceso de fabricación caro.

FUNDAMENTOS ESTADÍSTICOS.

La ciencia estadística que se emplea en el control de calidad es un instrumento para estudiar las variaciones
ocurridas en el proceso de fabricación.

Concepto de variación en la fabricación: La calidad de un producto manufacturado siempre está sujeta a ciertas
variaciones. Por esta razón se fija previamente una calidad determinada, la cual se conoce con el nombre de
“límite de tolerancias”. La admisión de estas tolerancias es el reconocimiento de inevitables variaciones de medida
en el proceso de fabricación.
Causas aleatorias y causas asignables de la variación: Las variaciones inevitables e inherentes a la fabricación
pueden ser causadas por las infinitas combinaciones de los tres factores, pero de manera aleatoria, donde el
conjunto se mueve en un campo estable con una marcada característica identificable. Si la variación producida
está fuera de este campo estable que se considera natural, podemos deducir que actúan otras causas extrañas
que se denominan asignables, porque se pueden descubrir y corregir con más facilidad.

Distribución de frecuencias: El mejor modo de conocer la variación es recopilar los datos de las medidas,
agruparlos y representarlos gráficamente.

En un histograma se podría ver la variación natural, es decir, la existencia de una tendencia central
respecto a la cual se dispersan las medidas formando un campo de variabilidad. Cuando la variación natural es
mas estrecha que los limites de tolerancia, entonces la maquina tiene la capacidad de cumplir con las exigencias
técnicas y el proceso no produciría defectuosos. Sin embargo, esto depende de que la máquina este centrada.
También puede verse una distribución truncada, que es la que resulta luego de una inspección 100%, una
distribución bimodal, que puede ocurrir al mezclarse dos fuentes de producción o dos proveedores, una
distribución de frecuencias con antipatía de los valores medios al utilizar equipos de medición con calibración
distinta o distribuciones rectangulares.
∑𝑋
Media aritmética: 𝑋̅ = 𝑛

Medida de dispersión o variación: grado de variación de los datos que tienden a dispersarse con respecto a su
valor central.

 Recorrido: es la diferencia entre el valor mayor y el menor de los datos. Cuando hay muchos datos, no
tiene mucha utilidad.
 Desviación estándar: la palabra desviación significa la diferencia entre el valor individual y el valor medio
o media aritmética (𝑋̅ − 𝑋). La desviación estándar es la raíz cuadrada del promedio de las desviaciones
cuadráticas con respecto a su media aritmética.

∑(𝑋 − 𝑋̅)2
𝑆=√
𝑁

Concepto de probabilidad

Para que la probabilidad se pueda medir, preparamos una escala de 0 (imposibilidad) a 1 (certeza).
Experimentalmente, después de una cierta cantidad de ensayos, la frecuencia relativa se aproxima a la
probabilidad. Entonces, en caso de no conocer de antemano la probabilidad teórica, con sólo la frecuencia relativa
podemos conocer su valor con gran aproximación, si el número de experimentos es suficientemente grande.

Cálculo de probabilidades:

 Ley de la adición: establece que la probabilidad de ocurrencia de cualquier evento en particular es igual
a la suma de las probabilidades individuales, si es que los eventos son mutuamente excluyentes.
 Ley del producto: calcula la probabilidad de que se verifiquen dos o más sucesos consecutivamente.

Distribución normal: Una variable aleatoria continua, X, sigue una distribución normal de media μ y desviación
típica σ, y se designa por N (μ, σ), si la variable puede tomar cualquier valor: (-∞, +∞) y su función de densidad,
es la expresión en términos de ecuación matemática de la curva de Gauss.

 Es simétrica respecto a la media µ.


 Tiene un máximo en la media µ.
 Crece hasta la media µ y decrece a partir de ella.
 En los puntos µ − σ y µ + σ presenta puntos de inflexión.
 El área del recinto determinado por la función y el eje de abscisas es igual a la unidad.

Relación entre la población y la muestra.


 μ = x̅
σ
 sx = x
√n

GRÁFICAS DE CONTROL
Instrumento para detectar si la variación de los procesos amerita considerarlos bajo Control Estadístico o
no. Puede cumplir tres funciones básicas:
a. Definir una meta para una operación.
b. Ayudar a obtener esa meta.
c. Determinar si la meta ha sido alcanzada.

Las gráficas de control se clasifican en:


 Por variables: se emplean cuando se tienen datos continuos como dimensión, peso, temperatura, etc.
Para este control se utilizan las gráficas de promedio X o intervalo R.
 Por atributos: se usan cuando se tienen datos discretos o cuando se desea clasificar una serie de medidas
continuas como aceptables o no. Se pueden usar gráficas de número de defectos o de porcentajes
defectuosos.
Estos gráficos hacen una comparación de la calidad actual con la experiencia anterior mediante muestras,
siguiendo un orden cronológico. Ésta secuencia de datos permite hacer una predicción con respecto al futuro
desempeño del proceso.

Pasos racionales implicados en las gráficas de control


1) Se parte de la hipótesis de que el proceso en estudio está bajo control estadístico.
2) Con base en muestras, se predicen los límites de la variación de dicho proceso al estar bajo control estadístico.
3) Estos límites, superior e inferior, de variación se ponen en una corrida.
4) Se obtienen nuevamente muestras de los resultados del proceso.
5) La variación que se da entre los datos de muestras se comprara con la predicción hecha anteriormente.
6) Si esas observaciones son consistentes con la predicción, se asume que el proceso está estable, muestras datos
posteriores no vengan a probar lo contrario.
7) Pero si las observaciones no son consistentes con la predicción, se tiene ya una base para afirmar que el
proceso no está bajo control estadístico. De esto se deriva la necesidad de identificar la causa especial, origen de
la variación fuera de los límites establecidos, para removerla.

GRÁFICA DE CONTROL POR VARIABLES.


Procedimiento para predecir los límites de variación
Los límites de control son aquellos que abarcan la distribución muestral con el 99,7%. Los límites de control
sirven para detectar los cambios del proceso, mientras los límites de tolerancias sirven para determinar si las
piezas están conformes a las exigencias técnicas. Los cambios en el proceso pueden ser motivados por la
modificación del promedio o de la dispersión. El gráfico 𝑋̅ sirve para verificar el promedio y el gráfico R se utiliza
para detectar la dispersión.

Los pasos de este procedimiento son los siguientes:


1) Periódicamente, y en número razonable se recogen grupos de muestras de los productos del proceso y se
obtienen los datos de estas muestras.
2) Se obtiene el promedio y el rango de variación de los datos de cada grupo.
3) Después se obtiene el promedio de los promedios y el promedio de los rangos de todos los grupos de muestras.
4) Con base a estos promedios y teniendo en cuenta unas constantes que se han establecido estadísticamente se
identifican los límites, tanto superior como inferior, de control de la gráfica.

Cálculo de los límites de control a distancia de 3σ con respecto a su valor central 𝑋̅ :

GRÁFICO 𝑋̅ GRÁFICO R

𝐿𝐶𝐼 = 𝑋̅ − 3𝜎𝑥 = 𝑋̅ − 𝐴2 𝑅̅ 𝐿𝐶𝐼 = 𝑅̅ − 3𝜎𝑅 = 𝐷3 𝑅̅

𝑉𝐶 = 𝑋̅ 𝑉𝐶 = 𝑅̅

𝐿𝑆𝐼 = 𝑋̅ + 3𝜎𝑥 = 𝑋̅ + 𝐴2 𝑅̅ 𝐿𝐶𝐼 = 𝑅̅ + 3𝜎𝑅 = 𝐷4 𝑅̅

Establecimientos de los gráficos 𝑿 ̅y𝐑 ̅


a) Determinación de lo que se debe controlar: cada gráfico controla sólo una medida, pero en muchos casos, una
pieza contiene varias medidas se deben llevar tantos gráficos cuantas sean las medidas a controlar. En la práctica,
al iniciarse el establecimiento del gráfico de control, es aconsejable elegir una dimensión que, según experiencias
pasadas, suele tener problemas de calidad.
b) Número de piezas en una muestra: normalmente se utilizan 4 o 5 piezas para formar una muestra, puesto que,
con mayor número de piezas, se pierde sensibilidad en el gráfico de R.
c) Maneras de sacar las muestras: existen 2 maneras de extraer una muestra:
1. Sacar 5 piezas juntas en un período de inspección o en un lote de producción: para obtener la mínima variación
dentro de una muestra y la máxima variación entre muestras. El inconveniente de este método tiene lugar cuando
el cambio ocurre después de extraer la muestra, para evitarlo se deben establecer los intervalos de inspección
con una frecuencia conveniente.
2. Sacar 5 piezas aleatoriamente en un período de inspección o en un lote de producción: la muestra es
representativa de la calidad de un determinado lote de producción o un determinado período de inspección. Pero
los puntos del gráfico de R pierden significación y la comparación de la calidad será lote en lote, no muestra en
muestra como en el primer método.
En general, se aconseja utilizar el primer método de extraer la muestra, pero para mayor seguridad se puede
aplicar una inspección por muestreo, después de formar un lote de productos terminados.

d) Frecuencias de inspección: si las frecuencias de inspección son regulares no hace falta la división de lotes.
Determinar la frecuencia de inspección es un asunto de experiencia y deliberación económica. Se suelen tener en
cuenta los 3 siguientes factores:
1. La capacidad del proceso
2. La disponibilidad de los inspectores
3. La comparación d entre los costos de inspección y la pérdida que pudiera ocasionar si se deja de inspeccionar
con más frecuencia.
En la práctica, al introducir un gráfico de control es difícil determinar los factores mencionados, pero se puede
seguir la siguiente norma: visitar la máquina de 1 hora a 4 horas si la producción es menor de 100 unidades por
hora. Si la producción es mayor a 100 unidades, se puede inspeccionar a pie de máquina de ¼ de hora a 1 hora.

Interpretación de las gráficas de control


Se colocan las gráficas para 𝑋̅ y R una encima de la otra de manera que el promedio y el rango para cualquier
subgrupo se encuentren en la misma línea vertical. Observe si alguna de ellas o ambas indican una falta de control
para ese subgrupo.

Las 𝑋̅ fuera de los límites de control son señal de un cambio general que afecta todas las piezas posteriores al
primer subgrupo fuera de los límites. Las causas comunes son un cambio en el material, el personal, la preparación
de la máquina, el desgaste de las herramientas, la temperatura o la vibración.

Las R fuera de los límites de control indican que la uniformidad del proceso ha cambiado. Las causas comunes
son un cambio de personal, un aumento en la variabilidad del material o desgaste excesivo en la maquinaria del
proceso.

 Si se verifican 2 puntos fuera de control, el proceso señala una modificación.


 También se interpreta que está fuera de control, si se encuentra una serie de valores, por ejemplo 7 puntos
sucesivos que caen en un lado de la línea central.
 Valores siguiendo una tendencia hacia las medidas mayores, a medida que se va desgastando la herramienta
de corte, por ejemplo. Sobre este fenómeno, mientras los valores no están más allá del límite no se interpreta que
el proceso esté fuera de control, sino que podemos obtener la información sobre la duración de la herramienta.
 Si los valores de 𝑋̅ oscilan mucho de muestra en muestra, significa que la máquina está mal ajustada.

̅ yr
Ventajas e inconvenientes de los gráficos de control 𝑿

Ventajas:
1- Científico: las informaciones obtenidas a base de la teoría de muestreo dan a conocer las variaciones del
proceso, tanto en el sentido de cambio de promedio como de dispersión.
2- Sensible: cualquier cambio, mediante los gráficos de control por medidas, es más sensible y se descubre con
mayor facilidad.
Inconvenientes:
La teoría del muestreo es difícil de comprender y se requiere un adiestramiento del personal para aplicarla.
Se requiere ciertos cálculos y papeleos, por lo tanto, aumentan los gastos de inspección.

CAPACIDAD

Es cómo se comporta un proceso a través del tiempo que está bajo control estadístico. Un proceso bajo
control estadístico es aquel que se comporta siempre igual a través del tiempo. Mejor es la capacidad cuanto más
grande es el Cpk, la necesidad de una capacidad grande se debe a que es difícil mantener la media del proceso en
el centro de las especificaciones por períodos de tiempos largos.
𝐿𝐸𝑆 − μ μ − 𝐿𝐸𝐼
𝐶𝑝𝑘 = min(𝐶𝑝𝑠 , 𝐶𝑝𝑖 ) 𝐶𝑝𝑠 = 𝐶𝑝𝑖 =
3𝜎 3𝜎
Tasa de habilidad→ índice de la capacidad del proceso
𝑟𝑒𝑛𝑔𝑜 𝑑𝑒 𝑒𝑠𝑝𝑒𝑐𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛 𝐿𝐸𝑆 − 𝐿𝐸𝐼
𝐶𝑝 = =
ℎ𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒𝑙 𝑝𝑟𝑜𝑐𝑒𝑠𝑜 6𝜎

LES = límite de especificación superior

LEI = límite de especificación inferior

6σ= capacidad básica del proceso

Si Cp = Cpk el proceso está entrando en la dimensión normal.

Clasificación de la capacidad del proceso

En la práctica es suficiente que sólo se clasifique la precisión de la máquina en 3 categorías respecto a sus
tolerancias. El criterio de clasificación está basado en la comparación entre la tolerancia total y el promedio del
recorrido. Esta relación se denomina índice relativo de precisión, IRP.
𝑡𝑜𝑙𝑒𝑟𝑎𝑛𝑐𝑖𝑎 𝑡𝑜𝑡𝑎𝑙
𝐼𝑅𝑃 =
𝑅̅
 Precisión baja: indica que cierta cantidad de piezas estarán fuera de las tolerancias inevitablemente, aun
cuando el proceso está bien centrado. Cuando menor sea el IRP, mayor será la cantidad de pieza fuera de
las tolerancias. En este caso se deben ampliar las tolerancias, designar otra máquina o elevar el valor
medio del proceso hacia arriba, para que la producción tenga todas las piezas defectuosas con medidas
superiores a la tolerancia superior, con el fin de efectuar otra pasada en la máquina, después de haber
realizado la inspección al 100%.
 Precisión mediana: esto significa que la producción estará satisfactoria siempre que no se altere el
promedio del proceso, reflejando en el gráfico de 𝑋̅. Como la estabilidad significa tanto el cambio del
promedio 𝑋̅ de las medidas como la variabilidad de la máquina, quiere decir que se deben mantener los
gráficos de 𝑋̅ y 𝑅̅ en control.
 Precisión alta: en las máquinas automáticas que suelen proporcionar capacidad del proceso estrecha. Las
piezas individuales están siempre o casi siempre dentro de las tolerancias establecidas y no hay necesidad
de seguir como guía los límites de control que están establecidos con arreglo a la capacidad del proceso.

GRÁFICAS DE CONTROL POR ATRIBUTO.


Desde el punto de vista del análisis estadístico, persiguen los mismos objetivos que los gráficos por medidas,
pero respecto al control, no tienen la misma sensibilidad, porque necesitan un tamaño de muestra grande. Se
pueden utilizar para conocer el nivel de calidad de un articulo o sección de la empresa o para controlar el proceso
de fabricación.

A- Gráfica P para fracción de Unidades Defectuosas: mide la fracción defectuosa o sea las piezas defectuosas en
el proceso. Pasos de elaboración:

1. Frecuencia y tamaño de la muestra: establecer la frecuencia con la cual los datos serán tomados (horaria,
diaria, semanal). Los intervalos cortos entre tomas de muestras permitirán una rápida retroalimentación al
proceso ante la presencia de problemas. Los tamaños de muestra grandes permiten evaluaciones más estables
del desarrollo del proceso y son más sensibles a pequeños cambios en el promedio. Se aconseja tomar tamaños
de muestra iguales, aunque no necesariamente se tiene que dar esta situación.

2. Cálculo del porcentaje defectuoso (p) del subgrupo:


Número de partes inspeccionadas= n
Número de partes defectuosas=np
𝐷 número de unidades defectuosas en muestra
Fracción defectuosa: 𝑝 = 𝑛 = tamaño de la muestra

3. Cálculo de porcentaje defectuoso promedio y límites de control


𝑛
1
𝑃̅ = ∑𝑝
𝑛
1

𝑃̅ (1 − 𝑃̅ )
𝐿𝑆𝐶 = 𝑝̅ + 3√
𝑛

𝑃̅ (1 − 𝑃̅ )
𝐿𝐼𝐶 = 𝑝̅ − 3√
𝑛

Si 𝑃̅ es pequeño, el límite inferior de control puede ser negativo considero 0 LIC.

4. Trazar la gráfica y analizar los resultados.

B- Gráfica np - Número de defectos: es basada en el número de defectuosos en vez de la proporción de


defectuosos. Los límites son calculados mediante la siguientes fórmulas.
𝐿𝑆𝐶 = 𝑛𝑝̅ + 3√𝑛𝑝(1 − 𝑝)
𝐿𝐼𝐶 = 𝑛𝑝̅ − 3√𝑛𝑝(1 − 𝑝)
C- Carta C: Se utiliza para determinar la ocurrencia de defectos en la inspección de una unidad de producto. Para
esto es determinar cuántos defectos tiene un producto.
𝑛
1
̅
𝐶 = ∑ 𝐶𝑖
𝑛
1
𝐿𝑆𝐶 = 𝐶̅ + 3√𝐶̅

𝐿𝐼𝐶 = 𝐶̅ − 3√𝐶̅

C: número de defectos en una muestra. C es la variable de Poisson con parámetro λ


Ci: número de defectos en la i-ésima muestra

D- Carta U: se basa en el promedio de defectos por unidad inspeccionada.


𝐶
𝑈=
𝑛
𝑚
1
̅=
𝑈 ∑ 𝑈𝑖
𝑚
1

𝑢̅
𝐿𝑆𝐶 = 𝑢̅ + 3√
𝑛

𝑢̅
𝐿𝐼𝐶 = 𝑢̅ − 3√
𝑛

C: número de defectos en la muestra


n: número de unidades en la muestra
m: número de muestras
U: estimador del número de defectos por unidad
𝑢̅: número promedio de defectos por unidad

OBS: cuando el tamaño de la muestra no es constante, es preferible utilizar la carta U en lugar de la carta C.

E- CARTA DE CONTROL DE SUMA ACUMULATIVA  SUM CUM: es la gráfica cronológica de la suma acumulada
de las desviaciones de una muestra estadística que se alejan de un valor de referencia. Sirve para detectar cambios
pequeños pero sostenidos, según:
𝑖

𝑆𝑖 = ∑(𝑋̅𝑗 − 𝜇0 ) = (𝑋̅𝑖 − 𝜇0 ) + 𝑆𝑖−1


𝑗=1

Supongamos que se toman muestras de tamaño n≥1 y que 𝑋̅𝑗 es el promedio de la j-ésima muestra, si 𝜇0
es el valor deseado de la media del proceso, la carta de control de suma acumulada se forma al graficar la cantidad:
𝑖

𝑆𝑖 = ∑(𝑋̅𝑗 − 𝜇0 )
𝑗=1
Si el proceso está bajo control, se observa una fluctuación aleatoria con media cero. Sin embargo, si la
media experimenta un corrimiento se desarrollará una tendencia.

La grafica CUSUM no es una gráfica de control ya que carece de límites, para adaptarlo se utiliza la
mascarilla V que consiste en un puntero de lugar y dos limites de control angulados. Siendo d y tita los parámetros
de diseño.

Si hay un desplazamiento del promedio del proceso sobre el valor de referencia, cada nuevo valor que se
le añade a la suma acumulada hará que aumente y causará una tendencia y, finalmente, una salida de los límites
de control.
𝜎 2
√𝑛
𝑑 = 𝐸(𝛼 ) ∗ ( )
𝐷
𝐷
tan 𝜃 =
2𝑦

TÉCNICA DEL PRE-CONTROL


Método estadístico de control de calidad que permite al operario prever simple y rápidamente si el producto
que hace continuará cayendo dentro de las tolerancias, siempre que la capacidad del proceso sea satisfactoria, es
decir, que la variación natural de 6 sigmas sea igual o menor que las tolerancias. Sus principales ventajas son su
simplicidad, sin ser necesario cálculos aritméticos y permite el empleo del calibre pasa-no pasa.
Dividir el campo en cuatro partes donde los límites superior e inferior de precontrol están a un cuarto de los
límites de control:
 Si las medidas de dos piezas consecutivas caen ambas
afuera de los limites precontrol (SS probabilidad 0.005 o II
probabilidad 0.005), ajustar el proceso.
 Si dos piezas consecutivas caen afuera de los limites
precontrol alternadamente (SI o IS probabilidad 0,01), la
capacidad del proceso es menor que las tolerancias.
 Si cinco piezas consecutivas caen dentro de la zona de
precontrol, se aprueba la puesta en marcha.
Unidad 3: Muestreo de aceptación
#1: Muestreo de aceptación del material por atributos.
Método estadístico mediante el cual se determina la calidad de un lote a través de la inspección de una o
varias muestras aleatoriamente extraídas. La aleatoriedad de una muestra significa que cualquier pieza del lote
tiene igual oportunidad de ser elegida. Por lo tanto, podemos decir que la muestra es una parte del lote, pero con
evidencia de la calidad del conjunto, donde las defectuosas que contiene una muestra guardan relación directa
con las defectuosas del lote de donde se ha sacado la muestra. Sus ventajas son:

 Más económico que la inspección 100%.


 Más eficaz que la inspección 100%
 Algunos casos no son practicables para la inspección 100%: materiales que deben ser destruidos para
conocer su calidad

Los planes de muestreo para la aceptación de material se pueden aplicar en:


 Entrada del material comprado
 Material semimanufacturado de una sección a otra dentro de la fábrica
 Producto terminado que sale para el consumidor

Criterios para la aceptación de material por muestreo→ porcentaje de piezas defectuosas que puede ser tolerada

 Primer criterio: Punto de indiferencia.


Surge de la comparación del costo de hallar una pieza defectuosa con el costo de
los daños producidos por no haber hallado dicha pieza defectuosa. En el punto de
equilibrio o de indiferencia, es igual el costo para la empresa de inspeccionarlo o dejarlo
pasar. Por un lado, el costo de hallar una unidad defectuosa es variable, ya que varía con
la proporción de defectuosos del lote, mientras que el costo de no halla un defectuoso es
contante. La intersección entre ambos es la proporción de defectuoso al que corresponde
el punto de indiferencia. La desventaja de este plan es que es múy rígido, por lo que se
prefieren las curvas de operación, la cual presenta un 50% de probabilidad de aceptar en el punto de indiferencia.

 Segundo criterio: Nivel aceptable de calidad (NAC)


Coloca el riesgo del productor alrededor del 5%. Los lotes que contengan el mismo
nivel de calidad aceptable, se aceptan la mayor parte de las veces.

 Tercer criterio: Porcentaje defectuoso máximo tolerable (LTPD)


Fija el riesgo del consumidor como un 10%. Se establece de modo que un lote que
contenta el LTPD se rechace el 90% de las veces.
 Cuarto criterio: límite de la calidad de salida media (AOQL)
Se utiliza para verificar el rendimiento del plan. En la práctica, el proveedor
inspecciona al 100% los lotes rechazados por el comprador remplazando los defectuosos por
artículos buenos antes de reenviarlo. Para lotes perfectos (p= 0%) el AOQ es 0%. Y en el caso
de un lote completo de defectuosos (p=1) o AOQ también es 0% por el proceso de
rectificación. Entre 0 y 1, el valor AOQ vale p*Pa varía y el AOQL es su máximo. En este
ejemplo, el comprador al aplicar el plan de aceptación obtendrá lotes con fracción defectuosa
máximo del 4.83% defectuoso.

Curva de operación.

Para comprender estos criterios deben conocerse las curvas características de operación o curvas OC. Para
cualquier fracción defectuosa p en un lote recibido, la curva OC muestra la probabilidad de que sea aceptado con
el plan de muestreo que se emplee.
La distribución del muestreo corresponde a una distribución binomial, donde cada elemento
inspeccionado puede ser defectuoso (fracaso) o no (éxito). Para trazarla:

1. Multiplicar p (proporción de defectuoso) por el tamaño de la


muestra n
2. Buscar np en tablas
3. Para cada valor de c (defectos máximos aceptados)
4. Registrar el valor de la probabilidad de aceptación
5. Calcular el riesgo del productor como 1-Pa cuando p=NAC
6. Calcular el riesgo del consumidor como Pa cuando p=LTPD

 Efecto del tamaño: incrementar n mientras c se mantiene constante, aumenta el riesgo del productor (porque
al aumentar n hay más probabilidad de que haya c defectuosos) y reduce el riego del consumidor.
 Efecto del nivel de aceptación: Incrementar c cuando n se mantiene constante reduce el riesgo del productor
(porque es más probable que acepten un lote) y aumenta el riesgo del consumidor (tolera más defectuosos).
Factores a determinar para elegir un plan de muestreo (con las tablas MIL-STD 10-5D)

1) Determinar si la calidad se define en función del porcentaje defectuoso o del número de defectos por 100
unidades:
número de unidades defectuosas
El porcentaje defectuoso es: P = número de unidades inspeccionadas 100
número de defectos totales
El número de defectos por 100 unidades: D = número de unidades inspeccionadas 100
Una unidad de producto defectuosa puede contener varios defectos; mientras que una unidad de producto que
contiene un defecto solo siempre es defectuosa.

2) Clasificar los defectos según su gravedad respecto a la calidad: un defecto de cada característica podría
tener diferente gravedad respecto a la calidad del producto.
 Defecto crítico: podría ocasionar riesgos o inseguridades para los que utilizan dicho producto.
 Defecto principal: tendría probabilidad de producir averías serias o reducir sustancialmente la utilidad del
producto.
 Defecto secundario: desviaría de las especificaciones establecidas, pero sin graves consecuencias para el
producto. Sin embargo, se puede clasificar el defecto de una manera diferente que las mencionadas.

3) Establecer el nivel de calidad aceptable (NAC): NAC es el máximo porcentaje de unidades defectuosas o el
número máximo de defectos en 100 unidades alcanzables por la media del proceso para poder considerarse como
satisfactorio. El NAC en la práctica de muestreo se determina del modo siguiente:
a) El criterio para determinar el NAC está basado en exigencias técnicas. El NAC puede establecerse de acuerdo
con la gravedad del defecto.
b) Otro factor que se debe considerar es el efecto de aparecer el producto defectuoso en fabricación posterior
y en montaje. Si el producto ocasiona la pérdida de material o de tiempo de funcionamiento después del montaje,
el NAC debe ser más exigente.
c) La norma general para fijar un NAC, es establecer un equilibrio entre la calidad que se desea y la calidad que
se puede conseguir. Si el NAC es más exigente que el que se puede obtener, una cantidad excesiva de producto
será rechazada. Si el NAC es demasiado liberal, una cantidad excesiva de producto defectuoso puede ser aceptada.
d) Podemos obtener un medio efectivo para determinar la situación más económica de la inspección, mediante
el cálculo del punto de indiferencia. El punto de indiferencia se define como:
Costo de eminar piezas defectuosas por medio de la inspección
Punto de indiferencia =
Costo de recuperación causado por estas piezas defectuosas que no han sido apartadas

Al comparar el valor del punto de indiferencia con el promedio del material recibido:
- P = Pi: inspección por muestreo será económicamente ventajosa
- P > Pi: es preferible inspección 100% sin importar su costo.
- P < Pi, pero es errática: inspección por muestreo está indicada únicamente con fines de protección.
- P < Pi y estable: se puede prescindir por completo de la inspección.

4) Determinar el tamaño de lote para inspección: el término lote significa un conjunto de unidades de producto
que se requiere para la inspección, y sobre ese conjunto se extraerá la muestra de acuerdo con el plan de
muestreo.
El lote para inspección no es necesariamente igual a un lote de producción. El criterio para formar un lote de
producción está basado en la necesidad de suministro al mercado o en la capacidad de fabricación, sin tener en
cuenta las distintas fuentes de producción. En cambio, el criterio para formar un lote de inspección es procurar
tener la máxima homogeneidad de los productos en el lote. Para la homogeneidad de los productos, se tiene que
tener en cuenta que los productos no hayan sido fabricados con diferentes materias primas ni por distintos
procesos de fabricación.
Con respecto al tamaño del lote de inspección, en caso de que los productos sean homogéneos, el tamaño
del lote debe ser lo más grande posible, ya que esto proporciona dos ventajas:
 Mejor protección para el consumidor
 Costo total de inspección más bajo (ya que depende de la relación n/N)

5) Elegir un plan de muestreo: existen 3 tipos de planes de muestreo: simple, doble o múltiple. En el muestro simple,
la decisión de aceptar o rechazar un lote depende de una muestra única. Por otro lado, en el muestreo doble o
múltiple, se inspecciona de muestra en muestra y la decisión de verificar una nueva muestra, depende del
resultado de las anteriores.
Muestreo doble:

N: número de piezas del lote

n1: número de piezas de la primera muestra

d1: número máximo de defectuosos para aceptar el lote

d2: número mínimo de defectuosos para rechazar el lote

n2: número de piezas de la segunda muestra

Muestreo múltiple: su fundamento es el ismo que el de muestreo doble, solo difiere en que la decisión para
aceptar o rechazar un lote esta basada en mas de dos muestras. En la práctica pueden usarse hasta 7.

La ventaja más destacada del muestreo doble sobre el simple o el múltiple sobre el doble es la económica,
ya que, a la larga, en el muestreo simple, el número de piezas inspeccionadas es mayor que en cualquier otra clase
de muestreo y el costo de inspección es proporcional al número de piezas inspeccionadas. La magnitud de esta
ventaja depende de: el nivel de calidad prefijada y el tamaño del lote
Para el caso de que los lotes enviados sean mejores que los prefijados, es evidente que el muestreo doble
lleva la ventaja sobre el simple, porque con la primera muestra se aceptan aquéllos; análogamente, si la calidad
es muy inferior a la prefijada se rechazan en la primera muestra.

Otra ventaja del muestreo doble o múltiple sobre el simple es el factor psicológico. Aunque cualquier plan
ofrece las mismas probabilidades de aceptación, en el muestreo simple el productor tiene una sola oportunidad.
El inconveniente en el muestreo doble o múltiple y es que, si la técnica de inspección es complicada, los
inspectores para no molestarse en sacar muchas muestras eligen de cualquier forma, pudiendo no ser aleatorias

6) Elegir entre inspección normal, rigurosa o reducida

7) Elegir el nivel de inspección


Los niveles de inspección establecen una relación entre tamaño de muestra y tamaño de lote, es decir, la
cantidad relativa de la inspección o fracción muestral. Existen tres niveles para uso general (niveles I, II y III) y tres
niveles especiales (niveles S-1, S-2, S-3 y S-4). El nivel II es el que debe utilizarse a menos que se indique otro
expresamente. Si se necesita una mayor protección contra el riesgo de aceptar lotes malos, se utiliza el nivel III. Si
puede admitirse un mayor riesgo para el cliente, se puede utilizar el nivel I. Los niveles especiales se emplean para
inspecciones costosas del tipo destructivo, con tamaños de muestra reducidos.

#2: Muestreo de aceptación del material por medidas.


El método Lot-Plot es una clase del plan de muestreo por variables, basándose en una representación
gráfica de las medidas de la muestra, cuyo tamaño es constante (50 unidades), sin que se deba tener en cuenta el
número de piezas de que se compone el lote.

El fundamento de este método es querer fotografiar la forma de distribución de las medidas del lote con una
muestra de 50 unidades, obteniendo el valor central y la dispersión de todo el lote, lo que permite compararlo
con las especificaciones establecidas.

REALIZACIÓN DE LA INSPECCIÓN POR LOT- PLOT


1) Se toma del lote una muestra al azar de 50 piezas y se forman 10 grupos de 5 piezas.
2) Se miden las 5 piezas de uno de los 10 grupos, calculando el promedio y el recorrido. El promedio sirve como
tentativa para localizar la tendencia central de la muestra.
El recorrido de las primeras 5 lecturas dividido por 5, suele ser una estimación bastante práctica de la escala de
valores de las casillas en la primera columna.
3) Un vez conocida la división de la escala, se registra el valor medio de las 5 primeras medidas en la primera columna.
4) En las casillas de distribución de frecuencia se coloca el numero que represente al grupo que pertenecen
5) Una vez registradas las 50 lecturas, en la casilla encabezada con f (frecuencias) se escribirán los totales por
horizontales. El total de la columna f debe ser 50.
6) En la columna encabezada con d (desviación) se pone un cero en la casilla que corresponde a la mayor frecuencia
y las casillas superiores se numeran con +1, +2, +3,… y las inferiores con -1, -2 -3,… etc.
7) La columna encabezada por fd registra el producto de f por d para cada casilla conservando el signo
correspondiente. Se suman estos valores con sus signos y se registra en la casilla ∑ 𝑓𝑑 con su signo. Si ∑ 𝑓𝑑 = 0,
significa que la distribución es perfectamente simétrica. Luego se divide esta suma por 50 para determinar la
verdadera media, que indica cuantas casillas o fracción de casilla se desplaza el promedio de las 50 medidas con
relación al centro 0 de la columna d.
8) En la columna encabezada con recorrido se registra en las casillas numeradas del 1 al 10, las dispersiones de cada
uno de los 10 grupos de 5 observaciones. La suma de estos 10 recurridos se pone en la casilla ∑ 𝑅 y dividiendo
esta suma por 10, se obtiene el valor de 𝑅̅ que se coloca en su casilla correspondiente. Multiplicando el valor de
𝑅̅ por 1,3 se obtiene el valor de 3σ dado en valores casillas. Este valor nos da la distancia de los límites de variación
que se designan LVS y LVI, límite superior y línea inferior de variación. Las líneas de trazo continuo LTS y LTI son
los límites de tolerancia que corresponden a las especificaciones técnicas.

Interpretación del LOT-PLOT


- Si las líneas de variación quedan comprendidas entre los límites de tolerancia, el lote no contiene unidades
defectuosas.
- Si uno de los límites de variación coincide con un límite de tolerancia, el lote puede contener aproximadamente
un 0,1% de unidades defectuosas.
- Si un límite de variación cae fuera de la especificación técnica, el porcentaje estimado de piezas defectuosas se
obtiene de la siguiente forma: el número de casillas comprendido entre el límite de variación y el límite de
tolerancia se divide entre el correspondiente valor de 3σ y leyendo en la tabla de equivalencias existentes en el
gráfico de este método, se obtiene el porcentaje aproximado de piezas defectuosas en el lote.

Asimetría: Cuando la representación gráfica de 50 unidades del lote presenta una marcada asimetría o
truncamiento (no forma de curva normal) se deben modificar el cálculo de los limites de variación. En este caso,
no se calcula ni el recorrido, ni el promedio 𝑋̅. Se coloca d=0 en la frecuencia mayor que se denomina casilla modal
y se traza una línea en centro de esta casilla. Se llenan las columnas f y d como en los casos anteriores y se hallan
las columnas fd y fd2 en sus respectivas casillas. Para calcular los límites de variación de la representación gráfica,
se estiman tratando cada mitad de la distribución separadamente y como si correspondiera a una distribución
normal.

#3: Planes de muestreo para producción continua.


Fundamento: tienen carácter de plan “aceptación-rectificación”. Es decir, no rechaza el producto, sino que lo
somete a una verificación total para obtener la parte fabricada satisfactoriamente. Se utiliza en procesos que
operan de manera continua, sin que puedan formarse lotes o que su formación sea dificultosa.
 CPS-1- Plan AOQL de Dodge. La inspección se realiza de la siguiente manera:
1) En la salida de producción, se inspeccionan todos los productos 100% según el orden de fabricación y se
continúa la inspección hasta que se encuentren i unidades consecutivas, libres de defectos.
2) Cuando se encuentra que i unidades consecutivas están libres de defectos, hay que interrumpir la inspección
100% y se empieza el muestreo inspeccionando sólo una fracción f de las unidades, con la selección de unidades
de muestra, una a la vez, en la corriente de producto, para tener la certeza de que es una muestra sin sesgo.
3) Si se encuentra una unidad de muestra que está defectiva, hay que volver de inmediato a las inspección del
100% de las unidades sucesivas y continuar así hasta que se encuentren otra vez i unidades libres de defectos.
4) Corregir o sustituir, por unidades buenas, todas las defectivas que se encuentren, tanto en la inspección 100%
como por muestreo.
En este plan, los valores de i y f están asociados con un valor específico de AOQL. Para cualquier combinación de
i y f, se puede encontrar un AOQL determinado según un gráfico.

 CSP-2: una vez iniciada la inspección, no se recurre a la inspección 100% cuando se encuentra cada defecto, sino
que se emplean sólo si el defecto ocurre en las siguientes k unidades o menos de la muestra. Este k se identifica
con i. Es decir, si dos defectos observados durante el muestreo están separados por k o menos unidades
inspeccionadas, se debe aplicar la inspección 100%. De lo contrario, se continúa el muestreo.

 CSP-3: es una mejora del CSP-2 a fin de dar mayor protección contra una corrida súbita de mala calidad o contra
la producción esporádica. Cuando se encuentra una muestra defectiva, se inspeccionan las cuatros unidades
siguientes en la producción y si ninguna de éstas se encuentra defectuosa, se continúa el procedimiento de
muestreo como con CSP-2; si una de las cuatro unidades está defectiva, se reanuda de inmediato la inspección de
100% y se continúa de acuerdo con las reglas para CSP-2. En el CSP-3, el valor de i se utiliza para una f y un AOQL
dados y el mismo que en CSP-2.

#4: Planes de muestreo secuencial con inspección pieza por pieza.


Fundamento: la verificación se hace pieza por pieza y el número definitivo de piezas que deben ser seleccionadas
dependen del resultado del proceso de inspección de las piezas precedentes: mientras que la del muestreo doble
o múltiple, se inspecciona de muestra en muestra y la decisión de tomar la siguiente muestra, depende del
resultado de las anteriores. Por lo tanto, la reducción del costo de inspección será aún más considerable en este
plan de muestreo secuencial.
El muestreo secuencial de inspección pieza por pieza está basado sobre la noción de juego al azar. En ella
se determina si una pieza es buena o mala. Se acumulan los resultados registrados y si el número de positivos
supera cierto valor límite se acepta el lote. En caso contrario, si la suma de los valores negativos alcanza otro límite
predeterminado, se rechaza el lote. La curva característica es:

P1: el nivel de calidad aceptable, expresado en porcentaje defectuoso NAC.


α: la probabilidad de rechazar el lote de este nivel de calidad aceptable P 1.
P2: el nivel de calidad inaceptable, expresado en fracción defectuosa.
β: la probabilidad de aceptar un lote de esta calidad inaceptable P2.
Con estos 4 parámetros se pueden calcular 3 constantes h1, b2 y S, que caracterizan el gráfico de control, en el
cual debe basarse la inspección.
1−𝛼 1−𝑃 1−𝛽
𝑙𝑜𝑔( ) 𝑙𝑜𝑔(1−𝑃1 ) 𝑙𝑜𝑔( )
𝛽 2 𝛼
ℎ1 = 𝑃2 1−𝑃1 ; ℎ2 = 𝑃2 1−𝑃1 ; 𝑆= 𝑃2 1−𝑃1
𝑙𝑜𝑔 ( ) 𝑙𝑜𝑔 ( ) 𝑙𝑜𝑔 ( )
𝑃1 1−𝑃2 𝑃1 1−𝑃2 𝑃1 1−𝑃2

Con estas 3 constantes, se establecen las 2 siguientes ecuaciones:


𝑑2 = 𝑆 𝑛 + ℎ2  representa la línea de rechazo.
𝑑1 = 𝑆 ∗ 𝑛 − ℎ1  representa la línea de aceptación.

Se grafica en la abscisa las unidades de las muestras


inspeccionadas y en la ordenada las piezas defectuosas
acumuladas en estas muestras.

Si en cierto número de muestras, el número acumulado


de defectuosas es superior a d2, se rechaza el lote; si es
inferior a d1, se acepta. Si este número acumulado de
defectuosas cae entre las 2 líneas d1 y d2 se deben
continuar sacando muestras de pieza en pieza hasta que
se pueda adoptar una decisión definitiva.
Unidad 4: Confiabilidad.

La confiabilidad es la probabilidad de que un elemento, equipo o sistema, funcione adecuadamente


durante su tiempo de vida.
- Concepto basado en la idea de cuantificar la fiabilidad: es la probabilidad de que un producto, pieza de quipo
o sistema realice sin falla una función determinada bajo las condiciones dadas y durante un período de tiempo
determinado. La fiabilidad es la probabilidad de que un producto funcione.
- Concepto basado en la idea de planificar la fiabilidad: este concepto lleva implícito la realización de una serie
de tareas que deben asignarse a todas las funciones asociadas con el desarrollo del producto desde el nacimiento
hasta su muerte. Para lograr la planificación hay que:
1) Cuantificar la fiabilidad en términos de probabilidad.
2) Definir claramente lo es un buen funcionamiento.
3) Definir el ambiente en que el equipo ha de funcionar.
4) Definir el tiempo requerido de funcionamiento entre fallas.

Fijación de objetivos globales de fiabilidad: requiere un acuerdo sobre la fiabilidad como número, sobre las
condiciones ambientales reales a las que este número debe aplicarse y sobre una definición de lo que es buen
funcionamiento del producto. Por lo que ambas partes deben participar.

Prorrateo y predicción de la fiabilidad: La fiabilidad de un sistema es función de las fiabilidades de los diversos
subsistemas. Cuanto más fiables seas estos subsistemas, más fiables será el sistema total. El prorrateo de la
fiabilidad es el proceso de distribuir la cota final de fiabilidad entre los subsistemas.

Predicción de la fiabilidad: proceso de estimar cuantitativamente la probabilidad de que un producto realiza su


misión. La técnica de predicción no sólo da una evaluación cuantitativa del diseño, o de un cambio de diseño, sino
que también puede descubrir las áreas del diseño con mayor potencial de mejora de la fiabilidad.
La predicción de fiabilidad es un proceso continuo que comienza con las predicciones sobre el papel,
basadas en un diseño y en información anterior de tasas de fallo, y termina con la medición de la fiabilidad, basada
en datos de utilización del producto por el cliente.
El proceso de predicción puede ser tan importante como los números resultantes. Esto se debe a que no
se puede hacer una predicción sin obtener una información bastante detallada sobre funciones del producto,
ambientes, historial de los componentes críticos, etc. El conseguir esta información da a menudo al diseñador
nuevos conocimientos no disponibles previamente.

Revisiones de diseño: mecanismo para pasar una completa revisión a un diseño propuesto a fin de asegurarse de
que dicho diseño puede fabricarse al costo más bajo posible y funcionar con éxito bajo las condiciones de
utilización previstas. Un programa adecuado usa los siguientes principios:
1) El equipo de revisión debe estar compuesto de los mejores técnicos disponibles, de dentro o de afuera de
la empresa.
2) La revisión incluye la participación de personal que no tenga relación con el diseño propuesto.
3) La revisión incluye no sólo la fiabilidad sino también producibilidad, mantenibilidad, etc.
4) La revisión se hace generalmente en función de criterios definidos, como las especificaciones.
5) Los problemas en potencia descubiertos por la revisión de diseño se documentan, asignando a individuos
determinados la responsabilidad de indagar más.
Ensayos de fiabilidad: ensayos realizados para verificar que un producto funcionará durante un tiempo dado.
Se concentran en 3 elementos:
1) Requisitos de actuación: se definen especialmente para cada producto. Una herramienta a usar puede
ser determinar por muestreo el uso real que del producto hacen los clientes, o bien, simular el uso por el
cliente.
2) Condiciones ambientales: temperatura, humedad, vibración, etc. Determinar los niveles ambientales
esperados y realizar ensayos para verificar que el producto pueda soportarlos.
3) Requisitos de tiempo: el tiempo que demande un programa de ensayo puede ser importante, por lo tanto,
existen 2 métodos para resolver este problema:
a. Hacer funcionar simultáneamente gran número de unidades durante menos tiempo.
b. Acelerar el ensayo haciendo funcionar las unidades bajo esfuerzos y/o niveles ambientales más severos
para que fallen antes. Luego se hacen extrapolaciones para convertir la vida bajo condiciones severas en vida
bajo condiciones esperadas.

Métodos para mejorar la fiabilidad de un diseño


La diagnosis consiste en identificar síntomas de debilidad en el diseño y rastrearlos hasta sus causas
probables, a cargo del ingeniero de fiabilidad.
La acción de modificar diseños a fin de aumentar la fiabilidad está a cargo del diseñador. Acciones del
diseñador y del ingeniero de fiabilidad para mejorar un diseño:
- Revisar el índice elegido para definir la fiabilidad del producto, a fin de asegurarse de que refleja las
necesidades del cliente.
- Discutir la función de las partes no fiables con vistas a eliminarlas totalmente si se encuentra que dicha función
es innecesaria.
- Revisar la selección de todas aquellas partes que sean relativamente nuevas y difíciles de probar. Usar piezas
normalizadas cuya fiabilidad haya sido probada.
- Realizar un programa de investigación y desarrollo para aumentar la fiabilidad de aquellas partes que más
contribuyen a reducir la del equipo.
- Especificar tiempos prudentes de sustitución para aquellas partes no fiables y sustituirlas antes de que fallen.
- Subvaloración: seleccionar partes que vayas a someterse a esfuerzos inferiores a los que normalmente pueden
soportar.

Programas de componentes críticos: busca identificar los pocos componentes vitales que contribuyen
decisivamente a la fiabilidad del sistema total. Un componente se considera crítico si:
- Se usa en el equipo en gran número.
- Sólo puede obtenerse de una única fuente.
- Ha de funcionar dentro de estrechos límites.
- No tiene un historial probado de alta fiabilidad.
La lista de estos componentes sirve para planear programas de ensayo para evaluar componentes;
descubrir las causas de falla que exigen acción preventiva del diseñador, si va a usarse el componente y descubrir
las causas de falla que exigen procedimientos especiales de manejo durante la fabricación y utilización del
componente.
Análisis del modo de producirse y efecto de las fallas: estudia las causas y efectos de las fallas antes de finalizar
un diseño (preventivo). Proporciona al diseñador una manera metódica de examinar su diseño. Es de gran
importancia cuando los productos son complejos y cuando el diseño esta realizado por varias unidades.

Organización para la fiabilidad→ características de las actividades de fiabilidad:


 Un programa de fiabilidad debe cubrir todas las secciones que afecten a la fiabilidad final.
 Hay que proveer fondos adecuados para un programa de fiabilidad.
 La ejecución de un programa de fiabilidad implica tanto tareas técnicas como una tarea de dirección. Las
primeras consisten en los esfuerzos para diseñar un producto fiable, las segundas en integrar todos los esfuerzos
técnicos y controlarlos.
 Los resultados de la fiabilidad sólo pueden ser alcanzados mediante acciones realizadas por la organización de
línea. El especialista en fiabilidad proporciona guía y asistencia al personal de línea para ejecutar sus tareas.
 El programa para cada proyecto ha de incluir un plan estricto y especificar responsabilidades, procedimientos
y cuadro de fechas.
 El programa tiene que incluir controles que detecten y comuniquen a la dirección todas las desviaciones entre
los planes y la actuación real.
 El programa tiene que abarcar tanto a los proveedores como a las operaciones internas de la empresa.
 La integración y evaluación totales del programa tienen que ser realizadas por una organización que sea
independiente de aquellos que tienen la responsabilidad de dar los pasos para alcanzar la fiabilidad requerida.

Mantenibilidad: probabilidad de que un sistema fallado se restaure a la condición de utilizable en un tiempo


especificado de ineptitud, cuando el mantenimiento se realiza bajo condiciones determinadas.
Cuantificación: consiste en la creación de 2 nuevos parámetros:
1) Parámetro de tiempo: para expresar el tiempo necesario para restaurar el servicio, es decir, el máximo
tiempo de ineptitud.
2) Parámetro de probabilidad: para expresar la probabilidad de cumplir el parámetro de tiempo.

Cuantificación de la mantenibilidad: a un sistema se le puede fijar un objetivo numérico total de fiabilidad. Esta
meta global se reparte a fin de determinar un objetivo para cada subsistema. La mantenibilidad puede predecirse
sobre el papel durante la fase de diseño y puede ser finalmente medida cronometrando el período requerido para
ciertas acciones de mantenimiento sobre unidades reales.

Compensación entre parámetros: se denomina así al proceso de equilibrar costos y efectos. El objetivo de una
industria es alcanzar una óptima efectividad global a un óptimo costo total. Esto puede llevar a un aumentar el
costo en una fase para reducir el costo y aumentar la efectividad en otra parte.

Disponibilidad: La disponibilidad es a veces una medida más apropiada que la fiabilidad. Mientras que la fiabilidad
es una medida del funcionamiento sin falla, la disponibilidad tiene en cuenta la fiabilidad como la mantenibilidad
ya que sus definiciones tienen en cuenta que se producirán fallas, pero que un buen programa de mantenibilidad
puede mejorar la efectividad total del producto.

 La disponibilidad en tiempo es el porcentaje de tiempo en que un equipo está operativo. Se calcula así:
𝑇𝑀𝐸𝐹
𝑃𝐷 =
𝑇𝑀𝐸𝐹 + 𝑇𝑀𝐷𝑅

TMEF= tiempo medio entre fallos


TMDR= tiempo medio de reparación

 Disponibilidad de equipos es el porcentaje de equipos que estarán disponibles para su uso después de t horas
de funcionamiento debido al efecto combinado de las unidades que no fallen y de aquellas en las que se
restablezca el servicio dentro de un tiempo máximo especificado de ineptitud.
 Disponibilidad de misión es el porcentaje de misiones de duración t en las que no se producirá ninguna falla
que no pueda reparase dentro de un tiempo máximo especificado de ineptitud.

Medición de la confiabilidad.
Vida útil de un producto: tiempo hasta que el producto sale de servicio abruptamente o de forma gradual.
Probabilidad de falla G(t): probabilidad de que una unidad salga de servicio antes de alcanzar su vida útil t.
Probabilidad de sobrevivir R(t): probabilidad de que una unidad supere una vida útil predeterminada t.
𝑅 (𝑡) = 1 − 𝐺(𝑡)

Tasa de fallas (λ): indica la probabilidad de que una unidad que todavía no salió de servicio hasta el momento t,
lo haga o “susceptibilidad a fallar”. Se corresponde con la fracción de unidades que van a salir de servicio, en
promedio, en el próximo intervalo de tiempo. En la práctica se determina según:
𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑓𝑎𝑙𝑙𝑎𝑠 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑓𝑎𝑙𝑙𝑎𝑠
𝜆= 𝑜 𝜆=
ℎ𝑜𝑟𝑎𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠 𝑑𝑒 𝑜𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛 𝑢𝑛𝑖𝑑𝑎𝑑𝑒𝑠 𝑝𝑟𝑜𝑏𝑎𝑑𝑎𝑠 ∗ 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 ℎ𝑜𝑟𝑎𝑠 𝑝𝑟𝑜𝑏𝑎𝑑𝑎𝑠

Si se traza el porcentaje acumulado de fallas contra tiempo, se obtiene una curva cuya pendiente
(pendiente de la recta tangente a la curva) en cada punto da la tasa instantánea de fallas. La tasa de fallas
promedio en cualquier intercalo es la pendiente de
la línea entre los puntos extremos del intervalo. La
curva característica de la vida del producto o curva
de la bañera, se grafica representando las tasas de
fallas a cada tiempo. La primera parte es el período
de falla temprana y tiene una tasa de falla
decreciente, luego viene un periodo estable
conocido como período de fallas aleatorias, a tasa de
fallas constantes, al final, la curva incrementa y se
denomina falla por desgaste.

T (recíproco de λ): para aquellos productos que deben reemplazarse cuando ocurre una falla, se denomina tiempo
medio hasta falla (MTTF) y para los productos reparables, se llama tiempo medio entre fallas (MTBF).

Modelos probabilísticos

𝐹 (𝑡) = 𝑃 (𝑇 < 𝑡) → 𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑎𝑐𝑢𝑚𝑢𝑙𝑎𝑑𝑎


𝑅 (𝑡) = 𝑃(𝑇 > 𝑡) = 1 − 𝐹(𝑡) → 𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑐𝑜𝑛𝑓𝑖𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑
𝑑𝐹(𝑡)
𝑓 (𝑡 ) = → 𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑑𝑒𝑛𝑠𝑖𝑑𝑎𝑑
𝑑𝑡
𝑓(𝑡) 𝑇 < 𝑡 + ∆𝑡
𝜆(𝑡) = = 𝑃( ) → 𝑡𝑎𝑠𝑎 𝑑𝑒 𝑓𝑎𝑙𝑙𝑎 𝑖𝑛𝑠𝑡𝑎𝑛𝑡𝑎𝑛𝑒𝑎
𝑅(𝑡) 𝑇>𝑡

Probabilidad de que una componente de edad t falle


antes de llegar a la edad t+∆t

El modelo probabilístico más general para estudiar la vida útil es la distribución de Weibull, que incluye
como caso particular a la distribución exponencial.

Ley normal de fallas:

1 −1 𝑥−𝜇 2
[ ( ) ]
𝑓(𝑡) = 𝑒 2 𝜎
𝜎√2𝜋

Distribución exponencial:

La tasa de falla es constante. Significa que usar el producto no altera su probabilidad de fallar, mientras
un artículo funcione es tan bueno como nuevo. Es la distribución que corresponde al sector central de la curva de
la bañera.

𝜆(𝑡) = 𝛼

𝑓 (𝑡) = 𝛼𝑒 −𝛼𝑡

𝑅(𝑡) = 𝑒 −𝛼𝑡
1
𝐸(𝑡) =
𝛼
Distribución de Weibull:

α y β son parámetros de escala y de forma. Al modificarlos, la distribución asume diversas formas, por lo que es
una herramienta muy flexible de modelado. Se usa para modelar datos de falla de componentes de memoria y
elementos estructurales de autos y aeroplanos.
𝛽
𝑓 (𝑡) = 𝛼𝛽𝑡𝛽−1 𝑒 −𝛼𝑡
𝛽
𝑅(𝑡) = 𝑒 −𝛼𝑡

Predicción de la confiabilidad.
Al efectuar una predicción de la confiabilidad se debe tener en cuenta la relación entre las componentes
susceptibles a fallar. Para predecir la confiabilidad de un equipo, es necesario conocer su configuración y la
confiabilidad de los componentes.
R1
1
R1 R2 R2
Paralelo
1
Serie 𝑅(𝑡) = 𝑃 (𝑇 > 𝑡) = 1 − 𝑃(𝑇 ≤ 𝑡)

𝑅(𝑡) = 𝑃 (𝑇 > 𝑡) 𝑅 (𝑡) = 1 − 𝑃(𝑇1 ≤ 𝑡 𝑦 𝑇2 ≤ 𝑡)

𝑅 (𝑡) = 𝑃(𝑇1 > 𝑡 𝑦 𝑇2 > 𝑡) 𝑅 (𝑡) = 1 − [𝑃(𝑇1 ≤ 𝑡) ∗ 𝑃(𝑇2 ≤ 𝑡)]

𝑅 (𝑡) = 𝑃 (𝑇1 > 𝑡) ∗ 𝑃(𝑇2 > 𝑡) 𝑅(𝑡) = 1 − {[1 − 𝑃 (𝑇1 > 𝑡)] ∗ [1 − 𝑃(𝑇2 > 𝑡)]}

𝑅(𝑡) = 𝑅1 (𝑡) ∗ 𝑅2 (𝑡) 𝑅(𝑡) = 1 − {[1 − 𝑅1 (𝑡)] ∗ [1 − 𝑅2 (𝑡)]}

𝑅(𝑡) ≤ 𝑀𝑖𝑛 [𝑅1 (𝑡); 𝑅2 (𝑡)] 𝑅(𝑡) ≥ 𝑀𝑎𝑥 [𝑅1 (𝑡); 𝑅2 (𝑡)]

𝑅 = ∏ 𝑅𝑖 𝑅 = 1 − (∏ 𝑅𝑖 )
Unidad 5: Calidad de servicio.

La calidad es una función permanente en una organización de servicios. Son las personas de la
organización las que determinan si la función de la calidad se está llevando a cabo o no de una forma aceptable.
El cliente es quien juzga finalmente si la calidad de esos bienes y servicios es satisfactoria y aceptable.

La naturaleza única de los servicios


Los servicios: no pueden medirse
no pueden inspeccionarse
no pueden almacenarse
no tiene una vida
tienen una dimensión temporal
se prestan tras solicitud
son más críticos en unas industrias que en otras
implican fiabilidad humana
Los empleados: son los peor pagos en la compañía
La calidad: es tanto objetiva como subjetiva
no se puede determinar de antemano

Características únicas de las empresas de servicios


 Un gran número de personas se ve involucrada
 Se efectúan muchas transacciones monetarias
 Se generan grandes volúmenes de documentos
 La falla del servicio puede deberse a una falla humana, o del equipo o a ambas
 No hay control mecánico sobre la variación como ocurre en la fábrica
 Los sistemas de ordenadores requieren un control especial
 El proceso de control debe usarse para mejorar la calidad, no para congelar el status quo.

Formas de mejorar la calidad

1. La calidad de servicio es real, observable, identificable y mejorable.


2. Se deben tomar medidas para asegurar una calidad aceptable en todos los productos adquiridos.
3. La calidad definida como el satisfacer las necesidades del cliente tiene unas serias limitaciones.
4. La aproximación a la calidad siempre ha sido negativa
5. Los errores, pérdida de tiempo y conductas incorrectas deben reducirse a cero.
6. Se debe acentuar las características positivas de la calidad
7. Se debe hacer efectiva la calidad usando el conocimiento disponible
8. Un liderazgo irresponsable no hace que nadie desarrolle calidad ni en servicios ni en productos.
9. Todo programa de calidad debe ser equilibrado, dándole una importancia adecuada a cada uno de los 8
vectores de la calidad.
10. Es importante aplicar la psicología a los problemas de relación humana en la calidad.
11. Es necesario estudiar a todos los clientes en cuanto a sus actitudes, preferencias, etc, y no sólo a aquellos
que presentan quejas.
12. La calidad de los servicios requiere satos para facilitar la toma de decisiones y acción.
13. No utilizar técnicas poderosas para corregir los fallos del sistema.
14. El empleado es responsable de la calidad de servicio.
15. La situación más seria fuera de control es cuando la propia dirección tiene dificultades para mantener el
control.
16. La mejora de la calidad es un problema de relaciones humanas, no un problema de organización.
17. Es necesario determinar las pérdidas y el costo de la no-calidad y llevarlos a cero.
18. Existen muchas maneras de comenzar un programa de calidad.
19. Es importante planificar y llevar a la práctica cursos de educación y aprendizaje para satisfacer las
necesidades de los empleados, supervisores y directores.
20. Si se presenta una meseta en la curva de aprendizaje, el control estadístico puede ser falso.
21. La búsqueda de la calidad es la búsqueda de la supervivencia.

Los ocho vectores de calidad

La calidad es un concepto multidimensional, puede describirse en término de 8 vectores, dimensiones o aspecto.

VECTOR O ASPECTO CARACTERIZACIÓN


1- 1) DIRECCIÓN: Los altos directivos tienen una posición crítica ya que tienen que: Dirección global
- Adoptar un compromiso de calidad si es que va a haber un programa de mejora
de calidad total
- Apoyar e impulsar este programa diariamente a fin de tener continuidad
- Corregir causas comunes en el sistema que son las responsables de las funciones
más importantes.
2- 2) SUPERVISIÓN: Significa dirigir, guiar, monitorear, liderar, vigilar o administrar. Dirección específica
Surge tan pronto como una persona vigila o dirige la actividad de otra.
3- 3) ESTADÍSTICA: Las aplicaciones de muestreo de probabilidad, el control de Técnicas, datos
calidad estadístico, el diseño de los experimentos y el análisis estadístico, son
herramientas muy útiles para mejorar la calidad.
4- 4) PSICOLOGIA: Para la aplicación de este tipo de programa se requiere un cambio Gente
de actitud humana, en el comportamiento, ideas, formas de trabajar, etc.
5- 5) ECONOMÍA: Costos
1. Reducción de costos de inspección y devoluciones
2. Control estadístico como ayuda al diseño técnico
3. Importancia de las nociones subjetivas de la calidad al interés comercial
4. Los 3 límites sigma en un gráfico de control
5. Referencias a la economía
6. La variabilidad que no excede lo que es económicamente deseable.
6) TIEMPO: Es una característica importante de la calidad, ya que, si se puede Planificación,
ahorrar tiempo, afectará directamente a una serie completa de importantes secuencia
operaciones. El tiempo está relacionado con la producción, la productividad, los
costos de la compañía y los precios que se cargan a los clientes.
“A tiempo” es una meta muy importante en muchas operaciones, reduce los
inventarios. La rapidez es una característica definitoria de la calidad en los servicios.
Un negocio puede basarse en el “servicio rápido”.
6- 7) PROCESOS: incluyen los medios para fabricar un producto o prestar un servicio. Procesos, sistema
En los servicios, el total de operación puede descomponerse en componentes del
servicio, los cuales son las partes que se tiene que planificar, diseñar, supervisar y
valorar. La calidad de servicio refleja cada uno de estos componentes.
7- 8) SUJETO: Se necesitan expertos en la materia de este programa para localizar y Acción correctiva,
resolver los casos problemáticos, situaciones fuera de control, fallas y operaciones remedios
esporádicas de máquinas y procesos.

CONTROL ON LINE

COMPRA
Establecimiento de pautas de
Control de insumos recepción de materias primas:
Selección de Proveedores  Planes de muestreo
 Uso de tablas
 Costos

INSTALACIÓN Y PUESTA A PUNTO DE EQUIPOS DE FABRICACIÓN

PRODUCCIÓN
 Gráficas de control
Control de procesos  Gráficas especiales
 Estudios de capacidad de procesos

INSPECCIÓN FINAL Y PRUEBA


 Planes de muestreo
 Uso de tablas
Control del producto
 Ensayos de confiabilidad

VENTA
CONTROL OFF LINE

SERVICIO POST-VENTA

SATISFACCIÓN DEL CLIENTE

INVESTIGACIÓN Y DESARROLLO

DISEÑO DEL PRODUCTO (SERVICIOS) Diseño experimentos: Método Taguchi

ESPECIFICACIÓN
Parámetros de calidad:
Del producto y materiales
o Diseño de parámetros
Normalización y estandarización
o Calidad de diseño
DISEÑO DEL PROCESO o Calidad de concordancia
o Disponibilidad
Del producto y materiales
Normalización y estandarización o Confiabilidad
o Servicio al cliente
o Determinación de garantías.

Se distinguen dos aspectos en el estudio de la calidad de un producto: La calidad del diseño (Off Line) y la
calidad de conformidad (On Line).

La calidad Off Line se relaciona con la correcta identificación de necesidades y expectativas del cliente, el diseño
de un producto que cubra esas necesidades y proceso de manufacturación sea consistente y económico y el
desarrollo de especificaciones, procedimientos y equipos de manufacturación que sean adecuados. Etapas:

I. Diseño del producto


II. Diseño del proceso
III. Diseño de las tolerancias

La calidad online: On Line posee dos etapas:

I. Métodos de control de la calidad de la producción:


• Proceso de diagnóstico y ajuste.
• Predicción y corrección.
• Medición y acción.
II. Relaciones con los clientes
Métodos Taguchi

Los métodos Taguchi son técnicas estadísticas tendientes a determinar las mejores condiciones de
variables de producto y proceso de fabricación. Mejores refiere al menor costo con la mayor unidad de
conformidad. También desarrollo el concepto de función de pérdida de calidad para relacionar el costo de la
calidad directamente con la variación de un proceso.

Las variaciones del entorno: Los elementos de pérdidas pueden ser internas o externas. Internas: cuanto más
variable sea el proceso de manufactura, más desperdicios se general y más tendrá que gastar la compañía en
probar e inspeccionar para determinar la conformidad. Externamente, los clientes descubrirán que el producto
no dura tanto ni funciona tan bien si no está cerca del valor objetivo.

Se sabe intuitivamente que, al reducir la variación, mejora la calidad. Pero casi nunca se piensa en términos del
valor de la baja variabilidad. Se sabe que es imposible
tener una variabilidad de 0, por lo tanto, se establecen
especificaciones que definen no sólo el valor objetivo de
algo, sino también límites aceptables, ej: 10±0.02
pulgadas. Una manera tradicional de interpretar esto es
que cualquier pieza que esté dentro del rango permitido
(9.98 – 10.02) es igual de buena a las demás, mientras que
cualquier pieza que esté por afuera del rango se considera
totalmente mala. En esta visión, el costo es cero en todo
el rango de las especificaciones para la sociedad (se asume
comportamiento perfecto) y luego hay un salto abrupto en
el costo al salir del límite.

Taguchi se opone a esa visión tradicional ya que:

 Desde el punto de vista del cliente, muchas veces no existe ninguna diferencia entre un producto que
cumple muy justamente las especificaciones y un producto que esta ligeramente por fuera de ellas. Sin embargo,
existe mucha diferencia entre la calidad de un producto en la especificación deseada y la calidad de uno cerca del
límite.
 Esta visión no refleja que, a medida que los clientes se vuelven más exigentes, existe presión para reducir
la variabilidad.
En base a esto, propone un gráfico más adecuado, en el que
el costo está representado por una curva suave, ya que el
cliente no ve una línea muy definida, sino una graduación
de aceptabilidad. Una curva parabólica cuando los límites
de especificación son simétricos. La pérdida es cero en el
valor objetivo, son pequeñas en sus cercanías y aumentan a
un ritmo mayor al alejarse de este. Si los artículos se
desechan cuando están fuera de especificación, la curva se
aplana a un valor del costo de desperdicios ya que, al no
venderse, nunca significaran una pérdida para la sociedad.
En los otros casos se aplica:

𝐿 = 𝐾(𝑥 − 𝑎)2

L= pérdida para la sociedad asociada con una unidad de producto producida a un valor x.
a = objetivo o meta. Suponer que, en a, L=0
K= cte

𝐾 = 𝑐/𝑑2 = 𝑐𝑡𝑒

c = pérdida asociada con una unidad de producto producida en un límite de especificación, suponiendo que en a
L=0.
d = distancia desde el objetivo hasta el límite de especificación.

Con n unidades de producto, la pérdida promedio por unidad se convierte en:

∑(𝑥 − 𝑎)2
̅𝐿 = 𝐾[ ]
𝑛
Cuando estos datos se conocen, se pueden aproximar bastante a la pérdida promedio por:

𝐿̅ = 𝐾[𝜎2 + (𝑥̅ − 𝑎)2 ]

𝑥̅ : promedio del proceso


σ: desviación estándar del proceso.

Existe cierta dificultad en el cálculo de c. Se planteó que valga una décima parte del precio de venta de un
ítem. Esto significa que, si una unidad estuviera justo al límite, existe una posibilidad razonable de que no pase la
inspección final o de que el cliente tenga problemas, por lo que redundaría en una perdida para el cliente y
posibles devoluciones por garantía.
Unidad 6: test de hipótesis.

Introducción: refiere a decidir si un valor obtenido a partir de la muestra es probable que pertenezca a la
población. En general, la media en una muestra suele ser distinta a la media de la población de la cual se extrae
la muestra. Lo normal suele ser que tal diferencia entre la media muestral y poblacional sea pequeña y debida al
azar, pero podría suceder que dicha diferencia no esté justificada por el azar y se deba a un cambio en la población,
y debamos modificar los datos que conocemos previamente.

Hipótesis estadísticas: son los supuestos sobre las poblaciones, que pueden ser ciertos o no, que se realizan a
partir de los datos sobre las muestras. El test de hipótesis se define como el procedimiento estadístico mediante
el cual se investiga la verdad o falsedad de una hipótesis acerca de una población o poblaciones. Dichas hipótesis
se formularán sobre la media poblacional μ o la proporción poblacional p.

Llamaremos hipótesis nula (Ho) a la hipótesis que se formula y por tanto se quiere contrastar o rechazar,
e hipótesis alternativa (H1) a cualquier otra hipótesis que sea diferente de la formulada, y que sea contraria a Ho,
de forma que la aceptación de la hipótesis nula H0 implica el rechazo de la alternativa H1 y viceversa. Son
mutuamente excluyentes y colectivamente exhaustivos. Pueden ser: de desigualdad o igualdad.

Errores del tipo I y del tipo II:

 Error tipo I: Hay ocasiones en las que Ho es cierta, pero a la vista de la muestra tengamos que rechazarla.
El error que consiste en rechazar la hipótesis nula cuando ésta es verdadera.
 Error tipo II: error que ocurre cuando, siendo H0 falsa, las evidencias de la muestra nos llevan a aceptarla.
Este error, es cometido al aceptar Ho cuando ésta es falsa.

Siendo:

α: “nivel de significación” → α=p(Rechazar Ho/Ho es cierta)=p(Error de Tipo I)

1-α: “nivel de confianza” → 1-α= p(Aceptar Ho/Ho es cierta)

β → β =p(aceptar Ho/Ho es falsa)=p(Error de Tipo II)

1-β: “potencia del contraste” → 1-β =p(Rechazar Ho/Ho es falsa)

Región crítica y región de aceptación

Al tener ya formulada la hipótesis nula, es necesario que las evidencias sean muy fuertes para rechazarla;
es decir, puede que haya cambios debidos al azar, en cuyo caso el cambio no es significativo, y no cambiamos,
pero puede que los cambios sean debidos a otras causas. En este último caso es cuando el cambio es significativo
y rechazaremos.

Intervalo de aceptación: fijar un cierto intervalo dentro del cual es normal que haya cambios porque son debidas
al azar, es decir, una región tal que, si el parámetro se mantiene en dicho intervalo, nos seguimos quedando con
Ho. Será mayor o menor dependiendo del nivel de confianza que precisemos, 1 − α.

Región critica o de rechazo: región que queda fuera de la región de aceptación indica que en este caso los cambios
no se pueden atribuir al azar, y por tanto hemos de rechazar H0 y aceptar H1.

Contraste bilateral (o de dos colas): En este caso la región de rechazo o región crítica está formada por dos
conjuntos de puntos disjuntos. Dicho caso se presenta cuando la hipótesis nula es del tipo H0: μ = y la hipótesis
alternativa, por tanto, es del tipo H1: μ ǂk . El nivel de significación α se concentra en dos partes (o colas) simétrica
respecto de la media. La región crítica para un cierto nivel α sería, en la N (0;1):

Contraste unilateral (o de una cola): En este caso la región crítica está formada por un conjunto de puntos, por lo
que el nivel de significación α se concentra sólo en una parte o cola. Este caso se presenta cuando la hipótesis
nula es del tipo Ho: μ ≥ k y la hipótesis alternativa, por tanto, es del tipo H1: μ < k. A nivel de confianza (1-α), las
regiones serían, en la N (0;1):

a) Unilateral por derecha (región de rechazo a la derecha):

b) Unilateral por izquierda (región de rechazo a la izquierda):


Etapas de un test de hipótesis: Los procedimientos seguidos en las pruebas de hipótesis correspondientes
a las situaciones de decisión estadística se encuentran prefijados y se llevan a cabo en una serie de etapas
que facilitan su comprensión:
1. Enunciar la hipótesis nula Ho y la alternativa H1. Deben ser excluyentes entre sí. Analizar, una vez
enunciadas, si el contraste es bilateral o unilateral (Es bilateral si la hipótesis alternativa es del tipo ǂ
y unilateral si es del tipo > o <)
2. Determinar el valor zα/2 (para contrastes bilaterales) o bien zα (para contrastes unilaterales), que
separa las regiones de rechazo y aceptación, a partir del nivel de confianza 1-α o el de significación α.
3. Determinar la distribución que sigue el parámetro muestral y en base a ella y al valor obtenido en la
etapa anterior, escribir las correspondientes regiones de aceptación y rechazo.
4. Calcular el estadístico usado en la prueba (en nuestro caso, calcular media muestral x o proporción
muestral p, a partir de la muestra).
5. Aplicar el test, es decir, dependiendo de si el estadístico cae en la región de aceptación o de rechazo,
tomar la decisión de aceptar una de las dos hipótesis.

Vous aimerez peut-être aussi