Académique Documents
Professionnel Documents
Culture Documents
Después de la Segunda Guerra Mundial, surgieron dos corrientes importantes que han tenido un profundo
impacto en la calidad.
La primera corriente es la revolución japonesa de la calidad. Antes de la Segunda Guerra Mundial la calidad
de los productos se percibía, en todo el mundo, como muy baja. Para ayudar a vender sus productos en mercados
internacionales, los japoneses dieron pasos revolucionarios para mejorar la calidad, con éxito legendario:
1) La alta administración se hizo cargo de llevar a cabo los cambios.
2) Todos los niveles y funciones recibían entrenamiento en las disciplinas de calidad.
3) Los proyectos de mejoramiento de la calidad se pusieron en marcha como un proceso continuo
La segunda corriente fue el realce que se dio a la calidad del producto en la mente del público. Varias
tendencias convergieron en este énfasis: los casos de demanda sobre el producto, la preocupación sobre el medio
ambiente, algunos desastres, la presión de las organizaciones de consumidores y la conciencia del papel de la
calidad en el comercio, las armas y otras áreas de competencia internacional.
Estas corrientes, dieron como resultado un escenario cambiante en las condiciones de los negocios que
caen necesariamente en el parámetro de la calidad. Esta realidad se ha desarrollado a través de muchas
condiciones cambiantes que influyen:
Competencia: antes mayor calidad significaba mayor precio. Hoy, los clientes pueden obtener alta calidad
y precios bajos. Una empresa deberá subir sus precios para cubrir los costos de baja calidad.
Clientes que cambian: algunas empresas intentan entrar a los mercados industriales que exigen más sobre
el “sistema de calidad”.
Mezcla de productos que cambia: cuando se cambia de una mezcla de volumen bajo con un precio alto, a
una de volumen alto con precio bajo, surge la necesidad de reducir los costos internos de baja calidad.
Complejidad del producto: conforme los sistemas se vuelven más complejos, los requerimientos de
confiablidad de componentes son más rigurosos.
Niveles más altos en las expectativas de los clientes: un ejemplo es la exigencia de la menor variabilidad
alrededor de un valor meta sobre la característica del producto aun cuando el producto cumpla con los
límites especificados. Otra expectativa es una mejor calidad en el servicio antes y después de la venta.
Las condiciones de los negocios en años pasados se apoyaban en enfoques más sencillos de calidad, por
ejemplo, la inspección el producto para controlar la calidad y la incorporación de los costos internos de baja
calidad en el precio de venta. Las condiciones cambiantes del comercio actual requieren nuevos enfoques si las
empresas quieren sobrevivir en los mercados competitivos del mundo.
Definición de calidad
Una definición breve es “la calidad de un producto está dada por la satisfacción del cliente”.
Características del producto: estas tienen un efecto importante en los ingresos por ventas. En muchas
industrias, la población total de clientes se puede dividir según el nivel o grado de calidad deseada. Aumentar la
calidad del diseño generalmente se traduce en costos más altos.
Falta de deficiencias: tiene un mayor efecto en los costos a través de la reducción de desperdicio,
retrabajo, quejas y otros resultados de ellas. La “falta de deficiencias” se refiere a la calidad de conformancia.
Aumentar la calidad de conformancia casi siempre significa costos menores.
En resumen: Calidad significa la satisfacción del cliente externo e interno. Los principales determinantes
de la satisfacción son las características del producto y la falta de deficiencias.
La función de calidad.
El logro de la calidad requiere de una amplia variedad de actividades. Conforme crece la empresa,
deberán crearse departamentos especializados para realizarlas. La función de calidad es la colección completa de
actividades a través de las cuales se logra la adecuación para el uso.
Existen actividades que son esenciales para comercializar cualquier producto nuevo o mejorado y siguen
una secuencia de eventos relativamente invariable o lineal. Algunas actividades se realizan dentro de la compañía,
otras las llevan a cabo personas como proveedores. Los elementos de la espiral están compuestos por las
actividades del enfoque tradicional (pequeña Q) y por la aplicación de los nuevos conceptos de calidad a todos los
productos y actividades funcionales (gran Q)
Administración de la calidad.
Es el proceso de identificar y administrar las actividades necesarias para lograr los objetivos de calidad de
una organización. Se analiza de manera análoga a las finanzas, mediante el uso de tres procesos administrativos:
planeación, control y mejoramiento, lo cual proporciona un enfoque metódico.
Los elementos de la trilogía de calidad se interrelacionan. Por ejemplo, en el gráfico se observa el efecto
en la falta de deficiencia. Por ejemplo, el problema esporádico se detecta y el proceso de calidad toma medidas,
si es un problema crónico, se cambia el proceso.
Los costos de calidad son aquellos en los que incurre la empresa por tener baja calidad. Se resumen en 4
categorías:
a. Costos preventivos: costos en los que se incurre al mantener los costos de fallas al mínimo.
1. Planeación de la calidad: organización de las actividades que crean el plan global de calidad y los planes
especializados; preparación de procedimientos necesarios de comunicación.
2. Revisión de nuevos productos: costos de ingeniería de confiabilidad y actividades asociadas con la
introducción de nuevos diseños.
3. Control de procesos: costos de inspección y pruebas en proceso para determinar el estado del proceso
y no la aceptación del producto.
4. Auditorías de calidad: costos de evaluar las actividades del plan global de calidad.
5. Evaluación de la calidad del proveedor: costos de evaluar las actividades de calidad del proveedor antes
de la selección, de la auditoría de las actividades durante el contrato y esfuerzos asociados.
6. Entrenamiento: costos de preparación e implementación de programas de entrenamiento
relacionados con la calidad.
b. Costos de evaluación: costos en los que se incurre al determinar el grado de conformancia con los
requerimientos de calidad.
1. Inspección y prueba al recibir: costos de determinar la calidad de productos comprados
2. Inspección y prueba en proceso: costos de evaluación en proceso
3. Inspección y prueba final: costos de evaluación para la aceptación del producto.
4. Auditorías de la calidad del producto: costos de realizar auditorías de calidad sobre productos en proceso
o terminados.
5. Mantenimiento de la exactitud del equipo de prueba: costos de mantener los instrumentos y equipos de
medición calibrados.
6. Inspección y pruebas de materiales y servicios: costos de materiales y provisiones para el trabajo de
inspección y prueba, y los servicios generales cuando sean significativos.
7. Evaluación del inventario: costos de probar productos almacenados para evaluar la degradación.
c. Costos de fallas internas: costos asociados con defectos que se encuentran antes de transferir el producto al
cliente.
1. Desperdicios: mano de obra, material y costos generales de los productos defectuosos que no es
económico reparar.
2. Retrabajo: el costo de corregir los defectos para hacer que satisfagan las especificaciones.
3. Análisis de fallas: costos de analizar los productos no conformantes para determinar las causas.
4. Material de desperdicio y retrabajo: costo de desperdicios y retrabajo debido a productos no
conformantes recibidos de los proveedores.
5. Inspección del 100%: costos de encontrar unidades defectuosas en lotes de productos que contienen
niveles inaceptables de productos defectuosos.
6. Reinspección y volver a probar: costos de volver a inspeccionar y probar los productos que han pasado
por retrabajo u otra revisión.
7. Pérdidas de proceso evitables: costos de las pérdidas que ocurren aun con productos conformantes.
8. Rebajas: la diferencia entre el precio normal de venta y el precio reducido por razones de calidad.
d. Costos de fallas externas: costos asociados con defectos que se encuentran después de mandar el producto al
cliente.
1. Costos de garantía: costos de reemplazo o reparación de productos que están dentro de garantía.
2. Conciliación de quejas: costos de investigación y conciliación de quejas justificadas.
3. Material regresado: costos asociados con la recepción y reemplazo de productos defectuosos.
4. Concesiones: costos de concesiones hechas a los clientes cuando aceptan productos debajo de los
estándares o especificaciones
Como definición estricta, los costos de la baja calidad son la suma de los costos por fallas internas y
externas, son aquellos que se anulan si desaparecieran todos los defectos.
Los elevados costos de fallas internas señalan la necesidad de programas de planeación y producción,
mientras que los altos costos de fallas externas señalan la necesidad de programas de diseño de productos y
servicios a clientes.
𝑐𝑜𝑠𝑡𝑜 𝑑𝑒 𝑓𝑎𝑙𝑙𝑎𝑠
𝐶𝑜𝑠𝑡𝑜 𝑡𝑜𝑡𝑎𝑙 = + 𝑐𝑜𝑠𝑡𝑜 𝑑𝑒 𝑒𝑣𝑎𝑙𝑢𝑎𝑐𝑖ó𝑛 + 𝑐𝑜𝑠𝑡𝑜𝑠 𝑑𝑒 𝑝𝑟𝑒𝑣𝑒𝑛𝑐𝑖ó𝑛
𝑖𝑛𝑡𝑒𝑟𝑛𝑎𝑠 𝑦 𝑒𝑥𝑡𝑒𝑟𝑛𝑎𝑠
1) Cuantificar la dimensión del problema de calidad en términos de dinero mejora la comunicación entre los
administradores medios y la alta administración, y además revela otras áreas problemas que antes no
habían sido descubiertas.
2) Se pueden identificar las oportunidades más importantes de reducción de costos.
3) Se pueden identificar las oportunidades para reducir la falta de satisfacción del cliente y las amenazas
asociadas con poder vender el producto.
Relación del gran total con las medidas del negocio: la interpretación del gran total se hace con ayuda de la
relación de los costos de baja calidad con otras cifras con las que los administradores están familiarizados. Las
relaciones que tienen mayor impacto en la alta administración son:
Costos de calidad ocultos: Costos que pueden resultar en la subestimación de los costos de calidad. Incluyen:
1. Ventas potenciales perdidas. Se puede medir por medio de las órdenes canceladas.
2. Costos de rediseño por razones de calidad.
3. Costos de cambiar el proceso de manufactura debido a la falta de habilidad para cumplir con los
requerimientos de calidad.
4. Costos de cambio de software por razones de calidad.
5. Costos incluidos en los estándares. Es inevitable cierto nivel de defecto y este se encuentra incluido
en la tolerancia de los estándares.
6. Costos de manufactura adicionales debidos a los defectos. Incluyen a los costos adicionales por
espacio, inventario y tiempo extra.
7. El desperdicio no reportado por miedo a represalias o el que se carga sin identificarlo como tal.
8. Costos de procesos excesivos para lograr un producto aceptable.
El estudio de la distribución de los costos de calidad en la mayoría se puede explorar más usando los modelos:
Costo de fallas: éstos son iguales a cero cuando el producto en 100% aceptable y se elevan a infinito
cuando el producto es 100% defectuoso.
Costo de evaluación más prevención: estos son cero con 100% de unidades defectuosas y se elevan cuando
se acerca a la perfección. Sin embargo, la cantidad en la que aumentan difiere para los 2 modelos.
Suma de las cuervas 1 y 2: Representa el costo total de la calidad por unidad aceptable de producto.
Este modelo representa las condiciones que prevalecieron durante gran parte del siglo
XX. “Evaluación + prevención” consistía en mucha evaluación y poca prevención. La
mayor parte de la evaluación la llevaban a cabo hombres falibles que limitan por
alcanzar la perfección con costos finitos. Así, el modelo muestra la curva de “costos de
evaluación más prevención” creciendo a infinito al acercarse a la perfección. En
consecuencia, la curva de “costo total” también tiende a infinito.
Este modelo representa las condiciones que surgieron en la última parte del siglo XX. Las
prioridades en la prevención aumentaron. La nueva tecnología redujo las fallas
inherentes en materiales y productos. La robótica y otras formas de automatización
redujeron el error de evaluación humano. En conjunto, estos desarrollos han dado como
resultado la habilidad de lograr la perfección a un costo finito.
Mientras que la perfección es una meta a largo plazo, no se puede concluir que la perfección sea la meta
más económica a corto plazo. En el primer modelo, la curva de costo total tiene un mínimo en un nivel anterior a
la perfección. La siguiente figura muestra esta curva de costo total dividida en 3 zonas. Por lo general, se puede
identificar la zona en la que se encuentra una compañía a partir de las razones de los costos de calidad que
prevalecen en las categorías principales como sigue:
Zona de proyectos de mejoramiento: ésta es la porción del lado izquierdo de la figura. Los costos por fallas
constituyen más del 70% de los costos de calidad totales, mientras que los costos de prevención son menores que
el 10% del total. En tales casos, existen oportunidades para reducir los costos de calidad totales mediante el
mejoramiento de la calidad de conformancia, reduciendo así los costos de baja calidad, en especial los de fallas.
Zona de altos costos de evaluación: ésta es la porción del lado derecho de la figura. Casi siempre se caracteriza
por el hecho de que los costos de evaluación exceden a los costos de las fallas. Hay oportunidades de reducir los
costos mediante: comparar del costo de los defectos detectados con el daño que causan si no se detectan; revisar
los estándares de calidad para ver si son realistas; evaluar una reducción en la inspección.
Zona de indiferencia: ésta es el área central de la figura. En estas zonas los costos de fallas significan alrededor de
la mitad de los costos de calidad mientras que los costos de prevención constituyen cerca del 10% de los costos
de calidad. En la zona de indiferencia se ha alcanzado el óptimo en términos de proyecto de mejoramiento de la
calidad, lo cual vale la pena seguir. El mejoramiento continuo siempre es deseable, pero los proyectos compiten
contra otras que valen la pena, aunque todavía no se encuentren en su nivel óptimo.
Apunte 2: Herramientas básicas para el control estadístico de procesos
2. Presentan relaciones y que promueven el que la organización unifique sus puntos de vista
a. Diagrama de flujo: representación gráfica que muestra todos los pasos de un proceso
y la forma como éstos se relacionan entre sí. Para elaborarlo:
1- Se identifica el paso inicial y el término del proceso y se encierran en un óvalo.
2- Se identifican los pasos que se dan a partir del inicial y se transcriben en forma
descendente siguiendo una línea vertical, hasta llegar al término del proceso.
3- Los pasos que integran esta columna vertical:
Se encierran en un rombo, si hay lugar a alguna alternativa (generalmente se transcribe
en forma de pregunta)
Se encierran en un rectángulo si son acciones que deben realizarse en cualquier opción.
4- Puesto que los rombos encierran una pregunta, de ello se desprenden 2 flechas:
La flecha vertical expresa que la contestación a la pregunta es afirmativa.
La flecha horizontal expresa que la contestación es negativa y que, por tanto, hay que
llevar a cabo un subproceso que, al final de cuentas, conduzca a alguna acción que se
localiza en la columna vertical principal.
b. Diagrama de Pareto: se basa en la ley de Pareto: “El 20% de los problemas, causan el 80% de los dolores
de cabeza”. Se utiliza para identificar los problemas mas importantes (los mas frecuentes nos siempre son
los mas costosos), medir el impacto de cambios en un
proceso, etc. Para elaborarlo:
1- Seleccionar el área cuyos problemas se desean
identificar, los aspectos involucrados en el tema y el período
a estudiar.
2- Confeccionar la hoja de verificación
3- Se ordenan los datos de mayor a menor participación, de
izquierda a derecha con tantas columnas como problemas
identificados
4- Se puede trazar el porcentaje acumulado en un eje
secundario
c. Diagrama causa-efecto: fue desarrollado para representar la relación entre algún efecto y todas las
posibles causas que influyen en él. Para elaborarlo:
1- Identificar el problema o característica de calidad que se quiere analizar.
2- Dibujar una flecha que corra de izquierda a derecha. En la punta de ésta (a la derecha) se escribe el
problema o característica de la calidad.
3- Identificar los apartados principales dentro de los cuales se pueden
agrupar las diferentes causas. Estos apartados pasar a ser los títulos de
las líneas que caen diagonalmente sobre la flecha.
4- Escribir las diferentes causas en torno a las líneas diagonales.
5- Para interpretar el diagrama: ver cuáles son las causas que aparecen
más frecuentemente, reunir información para determinar la frecuencia
con la que ocurren dichas causas e
investigar hasta qué grado los integrantes del grupo están de acuerdo
en que ésas sean las causas más importantes.
3. Resumen los datos en orden a una comunicación eficaz del contenido relevante de dichos datos
b. Corridas: son diagramas que presentan los datos a través del tiempo o de una secuencia. Para elaborarlo:
1- Hacer la tabla de datos
2- Obtener el promedio aritmético
3- Construir un sistema de coordenadas, con el eje horizontal representando
el tiempo y el vertical, los valores de los datos.
4- Trazar el valor promedio de los datos y
5- Colocar los datos dentro del sistema de coordenadas, representándolos
mediante un punto, uniéndolos con líneas rectas.
b. Diagrama de árbol: con este diagrama se obtiene una visión de conjunto de los medios mediante los
cuales se alcanza una meta. Procedimiento para elaborar un diagrama de árbol:
1- Se enuncia con la mayor claridad posible, la meta a alcanzar.
2- Se identifican los medios que conducen directamente a dicha meta.
3- Debido a que los medios identificados en el ítem anterior se convierten a su vez en metas a alcanzar, se
identifican los medios, mediante los cuales se alcanzar dichas metas, y así sucesivamente.
Calidad:
“Totalidad de los rasgos y características de un producto o servicio que se sustenta en su habilidad para
satisfacer las necesidades establecidas o implícitas”. American Society for quality
“Cumplimiento según especificaciones”. Crosby
“Conjunto de cualidades que constituyen la manera de ser de una persona o cosas”. Academia Española
“Grado en que un conjunto de características cumple con los requisitos”. ISO 9000-2000
“Calidad es satisfacción del cliente”. William E. Deming
Gestión de calidad: actividades de la función administrativa de la empresa que determinen las políticas, objetivos
y responsabilidades relacionados con la calidad y se implanten a través de medios que la involucren.
Sistema de gestión de calidad: serie de actividades coordinadas que se llevan a cabo sobre un conjunto de
elementos (Recursos, Procedimientos, Documentos, Estructura organizacional y Estrategias) para lograr la calidad
de los productos o servicios que se ofrecen al cliente, es decir, planear, controlar y mejorar aquellos elementos
de una organización que influyen en satisfacción del cliente y en el logro de los resultados deseados por la
organización
Mejora continua: proceso de ayuda para aprender y mejorar, cambiar los elementos no controlables en
controlables. Se basa en dos conceptos principales:
Mejora sistemática: Es el resultado de la utilización del método científico (que identificará la mejor opción
de acuerdo con los hechos) de las demás herramientas para la gestión de calidad total y una estructura para
guiar eficazmente los esfuerzos de trabajo.
Mejora iterativa: La idea básica está centrada en el ciclo de volver a empezar trabajando en el siguiente
problema, o en la mejora adicional del proceso ya mejorado. Esto es lo que ocurre con el ciclo de Deming o
PDCA: Plan+Do+Check+Act.
Deming afirma que todo proceso es variable y cuanto menor sea la variabilidad del mismo mayor será la
calidad del producto resultante. Deming ofreció catorce principios fundamentales para la gestión y transformación
de la eficacia empresarial, con el objetivo de ser competitivo, mantenerse en el negocio y dar empleo.
Objeto y campo de aplicación: describe los fundamentos de los sistemas de gestión de la calidad y define los
términos relacionados con los mismos. Esta Norma Internacional es aplicable a:
a) Las organizaciones que buscan ventajas por medio de la implementación de un sistema de gestión de la calidad.
b) Las organizaciones que buscan la confianza de sus proveedores en que sus requisitos para los productos serán
satisfechos
c) Los usuarios de los productos.
d) Aquellos interesados en el entendimiento mutuo de la terminología utilizada en la gestión de la calidad
e) Todos aquellos que evalúan o auditan el sistema de gestión de la calidad para determinar su conformidad con
los requisitos de la Norma ISO 9001
f) Todos aquellos que asesoran sobre el sistema de gestión de la calidad adecuado para dicha organización.
g) Quienes desarrollan normas relacionadas.
Enfoque basado en procesos
Proceso: actividad/es que utiliza recursos para transformar elementos de entrada en resultado. La
identificación y gestión sistemática de los procesos empleados en la organización y en particular las interacciones
entre tales procesos se conocen como "enfoque basado en procesos".
Para ISO 9000: Las partes interesadas juegan un papel significativo para proporcionar elementos de
entrada a la organización. El seguimiento de la satisfacción de las partes interesadas requiere la evaluación de la
información relativa a su percepción de hasta qué punto se han cumplido sus necesidades y expectativas.
Auditorias de primera parte: auditoría Interna (autoevaluación) para determinar la conformidad del sistema
con los requisitos, así como su implantación y eficacia. Puede llevarse a cabo por personal de la misma
organización o contratado pero independientes del área a auditar.
Auditorias de segunda parte: es un tipo de autoría externa en la que el cliente evalúa la organización. Tiene
como finalidad establecer la idoneidad de un proveedor para suministrar determinados productos o servicios.
Auditorias de tercera parte: Un órgano certificador evalúa a la organización. Tiene como finalidad la
certificación del sistema.
La organización contrata al organismo certificador→ Preauditoría → Auditoria → Aprobación de los resultados→
Evaluaciones periódicas de revalidación
Certificación
Actividad que permite establecer la conformidad de una determinada empresa, producto o servicio con
los requisitos definidos en normas.
Documento de referencia Organismo Proceso
Norma (voluntaria) Organismo normalizador Certificación
y certificador
Reglamento (obligatorio) Administración pública Homologación
La interacción y sinergia entre estos tres aspectos de la gestión aumentan la eficacia y eficiencia y permiten
la mejor comprensión de los procesos de la empresa.
Política integrada: Misión y principios que la empresa se compromete a
cumplir.
Planificación: Plantear Objetivos, metas y programas. Para cumplir con los
requisitos de las normas se debe identificar los aspectos ambientales, los
riesgos y peligros, los procesos y sus interacciones.
Implementación y operación: recursos, funciones, responsabilidades,
autoridad, comunicación, documentación y control
Verificación: a) Seguimiento y medición indicadores de los procesos
operativos, de la calibración de los equipos y de las emisiones ambientales; b)
Control del cumplimiento legal de no conformidad, acción correctiva y acción
preventiva y auditorias de primera, segunda y tercera parte.
Revisión por la dirección: nivel gerencial determinando la necesidad de
cambios basándose en resultados de las auditorias.
Unidad 2: Control de procesos
Apunte 1: Yu Chuen-Tao
Atributos y variables:
a) Mano de obra
b) Materiales
c) Maquinarias y métodos.
La importancia de cada factor sobre la calidad depende del papel que desempeña en el proceso de
fabricación. En muchos casos, el operario puede controlar los otros 2 factores que afectan la calidad, porque si el
material es defectuoso o la máquina funciona mal, el operario debe arreglar o avisar a su jefe. Por eso la conciencia
de calidad del operario es un elemento decisivo para la calidad.
Responsables de la calidad: es deber del que trabaja el producto controlar la calidad al mismo tiempo. La buena
calidad no depende de una buena inspección por parte de los inspectores del control, sino de una buena
fabricación.
Si el operario no cumple con su deber en cuestiones de calidad, la responsabilidad recae en su jefe directo,
el maestro. Y así sucesivamente hasta el director de la empresa.
El Control no es más que un órgano staff que asesora y ayuda a la Dirección o a la Fabricación proporcionándole
la información a su debido tiempo sobre las causas perturbadoras de la calidad. Es decir, el Control se limita a una
labor de información y carece de autoridad para modificar el proceso de fabricación.
El Departamento de Control de Calidad es un órgano staff que se encarga de coordinar los esfuerzos de los
diversos departamentos para mantener y mejorar la calidad a un nivel lo más económico posible. Las tareas a
realizar son:
- Tarea preventiva: estudio de la capacidad del proceso, gráficos de control en el proceso y para el nivel de
calidad, planes de muestreo para la aceptación de la calidad.
- Tarea de conformidad: inspección en la recepción, en el proceso y en los productos acabados;
comprobación de los calibres y medios de ensayos; pruebas y ensayos.
- Tarea correctiva: estudio de reclamaciones; revisión de la calidad para su mejora; búsqueda de fallos;
proporcionar los datos con su correcta interpretación.
- Tarea de seguridad: control de salida de productos; estudio económico del costo de calidad; comparación
de la calidad con otras empresas, precisión en la inspección; adiestramiento del personal.
La Inspección es un acto de comprobación, por la cual se verifican los productos terminados en una fase
determinada, según las especificaciones requeridas. Esta verificación se puede realizar mediante instrumentos de
medición, ensayos de laboratorio, visualmente, etc. La inspección tiene que cumplir dos misiones:
Proporcionar la base para una decisión respecto al “proceso de fabricación”, con vistas a la futura
producción; por ejemplo, decidir si el proceso es bueno.
Proporcionar una base para una decisión respecto al producto ya elaborado y así, decidir si ese artículo o
lote de productos debe ser admitido;
- Directa: es el control directo por parte de los inspectores del proceso de fabricación. El medio más eficaz
de analizar los resultados de la calidad es el gráfico de control. El inconveniente de esta inspección está
en que el operario no comprende el gráfico de control según sus conocimientos y, por lo tanto, desconoce
la calidad que él fabrica, mientras que se siente controlado y vigilado.
- Indirecta: consiste en que el control de proceso es llevado por el mismo operario, quedando la
comprobación para el inspector. El operario juzga la calidad y modifica el reglaje si es necesario. Este
control es más económico y eficaz si se les da a los operarios los conocimientos de la técnica y medios
suficientes.
Como la inspección no intervine en el control del proceso, el juicio sobre la calidad se formará mediante
el muestreo de aceptación de material, aceptando o rechazando el lote como si la mercancía viniese del exterior
de la fábrica.
La Oficina Técnica establece las especificaciones y define las características del producto. La sección de
fabricación produce el artículo con arreglo a las normas establecidas por la oficina técnica. El control comprueba
el artículo fabricado para verificar si está conforme o no, con las especificaciones correspondientes. En caso de
que la fabricación no hay cumplido dichas especificaciones, el control tiene el deber de saber por qué: si es debido
a la negligencia del operario o a la capacidad de proceso. Si es por este último, el control debe dar parte a la oficina
técnica para que ésta amplíe las tolerancias. En algunos casos, no es posible modificar las tolerancias por las
exigencias del cliente y entonces el control de calidad debe avisar al control de producción para que se le designe
otra máquina o se modifique el método de trabajo. En el caso de que no exista posibilidad de cambiar la máquina
o el método, se necesitará una selección después de la fabricación y esto es un proceso de fabricación caro.
FUNDAMENTOS ESTADÍSTICOS.
La ciencia estadística que se emplea en el control de calidad es un instrumento para estudiar las variaciones
ocurridas en el proceso de fabricación.
Concepto de variación en la fabricación: La calidad de un producto manufacturado siempre está sujeta a ciertas
variaciones. Por esta razón se fija previamente una calidad determinada, la cual se conoce con el nombre de
“límite de tolerancias”. La admisión de estas tolerancias es el reconocimiento de inevitables variaciones de medida
en el proceso de fabricación.
Causas aleatorias y causas asignables de la variación: Las variaciones inevitables e inherentes a la fabricación
pueden ser causadas por las infinitas combinaciones de los tres factores, pero de manera aleatoria, donde el
conjunto se mueve en un campo estable con una marcada característica identificable. Si la variación producida
está fuera de este campo estable que se considera natural, podemos deducir que actúan otras causas extrañas
que se denominan asignables, porque se pueden descubrir y corregir con más facilidad.
Distribución de frecuencias: El mejor modo de conocer la variación es recopilar los datos de las medidas,
agruparlos y representarlos gráficamente.
En un histograma se podría ver la variación natural, es decir, la existencia de una tendencia central
respecto a la cual se dispersan las medidas formando un campo de variabilidad. Cuando la variación natural es
mas estrecha que los limites de tolerancia, entonces la maquina tiene la capacidad de cumplir con las exigencias
técnicas y el proceso no produciría defectuosos. Sin embargo, esto depende de que la máquina este centrada.
También puede verse una distribución truncada, que es la que resulta luego de una inspección 100%, una
distribución bimodal, que puede ocurrir al mezclarse dos fuentes de producción o dos proveedores, una
distribución de frecuencias con antipatía de los valores medios al utilizar equipos de medición con calibración
distinta o distribuciones rectangulares.
∑𝑋
Media aritmética: 𝑋̅ = 𝑛
Medida de dispersión o variación: grado de variación de los datos que tienden a dispersarse con respecto a su
valor central.
Recorrido: es la diferencia entre el valor mayor y el menor de los datos. Cuando hay muchos datos, no
tiene mucha utilidad.
Desviación estándar: la palabra desviación significa la diferencia entre el valor individual y el valor medio
o media aritmética (𝑋̅ − 𝑋). La desviación estándar es la raíz cuadrada del promedio de las desviaciones
cuadráticas con respecto a su media aritmética.
∑(𝑋 − 𝑋̅)2
𝑆=√
𝑁
Concepto de probabilidad
Para que la probabilidad se pueda medir, preparamos una escala de 0 (imposibilidad) a 1 (certeza).
Experimentalmente, después de una cierta cantidad de ensayos, la frecuencia relativa se aproxima a la
probabilidad. Entonces, en caso de no conocer de antemano la probabilidad teórica, con sólo la frecuencia relativa
podemos conocer su valor con gran aproximación, si el número de experimentos es suficientemente grande.
Cálculo de probabilidades:
Ley de la adición: establece que la probabilidad de ocurrencia de cualquier evento en particular es igual
a la suma de las probabilidades individuales, si es que los eventos son mutuamente excluyentes.
Ley del producto: calcula la probabilidad de que se verifiquen dos o más sucesos consecutivamente.
Distribución normal: Una variable aleatoria continua, X, sigue una distribución normal de media μ y desviación
típica σ, y se designa por N (μ, σ), si la variable puede tomar cualquier valor: (-∞, +∞) y su función de densidad,
es la expresión en términos de ecuación matemática de la curva de Gauss.
GRÁFICAS DE CONTROL
Instrumento para detectar si la variación de los procesos amerita considerarlos bajo Control Estadístico o
no. Puede cumplir tres funciones básicas:
a. Definir una meta para una operación.
b. Ayudar a obtener esa meta.
c. Determinar si la meta ha sido alcanzada.
GRÁFICO 𝑋̅ GRÁFICO R
𝑉𝐶 = 𝑋̅ 𝑉𝐶 = 𝑅̅
d) Frecuencias de inspección: si las frecuencias de inspección son regulares no hace falta la división de lotes.
Determinar la frecuencia de inspección es un asunto de experiencia y deliberación económica. Se suelen tener en
cuenta los 3 siguientes factores:
1. La capacidad del proceso
2. La disponibilidad de los inspectores
3. La comparación d entre los costos de inspección y la pérdida que pudiera ocasionar si se deja de inspeccionar
con más frecuencia.
En la práctica, al introducir un gráfico de control es difícil determinar los factores mencionados, pero se puede
seguir la siguiente norma: visitar la máquina de 1 hora a 4 horas si la producción es menor de 100 unidades por
hora. Si la producción es mayor a 100 unidades, se puede inspeccionar a pie de máquina de ¼ de hora a 1 hora.
Las 𝑋̅ fuera de los límites de control son señal de un cambio general que afecta todas las piezas posteriores al
primer subgrupo fuera de los límites. Las causas comunes son un cambio en el material, el personal, la preparación
de la máquina, el desgaste de las herramientas, la temperatura o la vibración.
Las R fuera de los límites de control indican que la uniformidad del proceso ha cambiado. Las causas comunes
son un cambio de personal, un aumento en la variabilidad del material o desgaste excesivo en la maquinaria del
proceso.
̅ yr
Ventajas e inconvenientes de los gráficos de control 𝑿
Ventajas:
1- Científico: las informaciones obtenidas a base de la teoría de muestreo dan a conocer las variaciones del
proceso, tanto en el sentido de cambio de promedio como de dispersión.
2- Sensible: cualquier cambio, mediante los gráficos de control por medidas, es más sensible y se descubre con
mayor facilidad.
Inconvenientes:
La teoría del muestreo es difícil de comprender y se requiere un adiestramiento del personal para aplicarla.
Se requiere ciertos cálculos y papeleos, por lo tanto, aumentan los gastos de inspección.
CAPACIDAD
Es cómo se comporta un proceso a través del tiempo que está bajo control estadístico. Un proceso bajo
control estadístico es aquel que se comporta siempre igual a través del tiempo. Mejor es la capacidad cuanto más
grande es el Cpk, la necesidad de una capacidad grande se debe a que es difícil mantener la media del proceso en
el centro de las especificaciones por períodos de tiempos largos.
𝐿𝐸𝑆 − μ μ − 𝐿𝐸𝐼
𝐶𝑝𝑘 = min(𝐶𝑝𝑠 , 𝐶𝑝𝑖 ) 𝐶𝑝𝑠 = 𝐶𝑝𝑖 =
3𝜎 3𝜎
Tasa de habilidad→ índice de la capacidad del proceso
𝑟𝑒𝑛𝑔𝑜 𝑑𝑒 𝑒𝑠𝑝𝑒𝑐𝑖𝑓𝑖𝑐𝑎𝑐𝑖ó𝑛 𝐿𝐸𝑆 − 𝐿𝐸𝐼
𝐶𝑝 = =
ℎ𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒𝑙 𝑝𝑟𝑜𝑐𝑒𝑠𝑜 6𝜎
En la práctica es suficiente que sólo se clasifique la precisión de la máquina en 3 categorías respecto a sus
tolerancias. El criterio de clasificación está basado en la comparación entre la tolerancia total y el promedio del
recorrido. Esta relación se denomina índice relativo de precisión, IRP.
𝑡𝑜𝑙𝑒𝑟𝑎𝑛𝑐𝑖𝑎 𝑡𝑜𝑡𝑎𝑙
𝐼𝑅𝑃 =
𝑅̅
Precisión baja: indica que cierta cantidad de piezas estarán fuera de las tolerancias inevitablemente, aun
cuando el proceso está bien centrado. Cuando menor sea el IRP, mayor será la cantidad de pieza fuera de
las tolerancias. En este caso se deben ampliar las tolerancias, designar otra máquina o elevar el valor
medio del proceso hacia arriba, para que la producción tenga todas las piezas defectuosas con medidas
superiores a la tolerancia superior, con el fin de efectuar otra pasada en la máquina, después de haber
realizado la inspección al 100%.
Precisión mediana: esto significa que la producción estará satisfactoria siempre que no se altere el
promedio del proceso, reflejando en el gráfico de 𝑋̅. Como la estabilidad significa tanto el cambio del
promedio 𝑋̅ de las medidas como la variabilidad de la máquina, quiere decir que se deben mantener los
gráficos de 𝑋̅ y 𝑅̅ en control.
Precisión alta: en las máquinas automáticas que suelen proporcionar capacidad del proceso estrecha. Las
piezas individuales están siempre o casi siempre dentro de las tolerancias establecidas y no hay necesidad
de seguir como guía los límites de control que están establecidos con arreglo a la capacidad del proceso.
A- Gráfica P para fracción de Unidades Defectuosas: mide la fracción defectuosa o sea las piezas defectuosas en
el proceso. Pasos de elaboración:
1. Frecuencia y tamaño de la muestra: establecer la frecuencia con la cual los datos serán tomados (horaria,
diaria, semanal). Los intervalos cortos entre tomas de muestras permitirán una rápida retroalimentación al
proceso ante la presencia de problemas. Los tamaños de muestra grandes permiten evaluaciones más estables
del desarrollo del proceso y son más sensibles a pequeños cambios en el promedio. Se aconseja tomar tamaños
de muestra iguales, aunque no necesariamente se tiene que dar esta situación.
𝑃̅ (1 − 𝑃̅ )
𝐿𝑆𝐶 = 𝑝̅ + 3√
𝑛
𝑃̅ (1 − 𝑃̅ )
𝐿𝐼𝐶 = 𝑝̅ − 3√
𝑛
𝐿𝐼𝐶 = 𝐶̅ − 3√𝐶̅
𝑢̅
𝐿𝑆𝐶 = 𝑢̅ + 3√
𝑛
𝑢̅
𝐿𝐼𝐶 = 𝑢̅ − 3√
𝑛
OBS: cuando el tamaño de la muestra no es constante, es preferible utilizar la carta U en lugar de la carta C.
E- CARTA DE CONTROL DE SUMA ACUMULATIVA SUM CUM: es la gráfica cronológica de la suma acumulada
de las desviaciones de una muestra estadística que se alejan de un valor de referencia. Sirve para detectar cambios
pequeños pero sostenidos, según:
𝑖
Supongamos que se toman muestras de tamaño n≥1 y que 𝑋̅𝑗 es el promedio de la j-ésima muestra, si 𝜇0
es el valor deseado de la media del proceso, la carta de control de suma acumulada se forma al graficar la cantidad:
𝑖
𝑆𝑖 = ∑(𝑋̅𝑗 − 𝜇0 )
𝑗=1
Si el proceso está bajo control, se observa una fluctuación aleatoria con media cero. Sin embargo, si la
media experimenta un corrimiento se desarrollará una tendencia.
La grafica CUSUM no es una gráfica de control ya que carece de límites, para adaptarlo se utiliza la
mascarilla V que consiste en un puntero de lugar y dos limites de control angulados. Siendo d y tita los parámetros
de diseño.
Si hay un desplazamiento del promedio del proceso sobre el valor de referencia, cada nuevo valor que se
le añade a la suma acumulada hará que aumente y causará una tendencia y, finalmente, una salida de los límites
de control.
𝜎 2
√𝑛
𝑑 = 𝐸(𝛼 ) ∗ ( )
𝐷
𝐷
tan 𝜃 =
2𝑦
Criterios para la aceptación de material por muestreo→ porcentaje de piezas defectuosas que puede ser tolerada
Curva de operación.
Para comprender estos criterios deben conocerse las curvas características de operación o curvas OC. Para
cualquier fracción defectuosa p en un lote recibido, la curva OC muestra la probabilidad de que sea aceptado con
el plan de muestreo que se emplee.
La distribución del muestreo corresponde a una distribución binomial, donde cada elemento
inspeccionado puede ser defectuoso (fracaso) o no (éxito). Para trazarla:
Efecto del tamaño: incrementar n mientras c se mantiene constante, aumenta el riesgo del productor (porque
al aumentar n hay más probabilidad de que haya c defectuosos) y reduce el riego del consumidor.
Efecto del nivel de aceptación: Incrementar c cuando n se mantiene constante reduce el riesgo del productor
(porque es más probable que acepten un lote) y aumenta el riesgo del consumidor (tolera más defectuosos).
Factores a determinar para elegir un plan de muestreo (con las tablas MIL-STD 10-5D)
1) Determinar si la calidad se define en función del porcentaje defectuoso o del número de defectos por 100
unidades:
número de unidades defectuosas
El porcentaje defectuoso es: P = número de unidades inspeccionadas 100
número de defectos totales
El número de defectos por 100 unidades: D = número de unidades inspeccionadas 100
Una unidad de producto defectuosa puede contener varios defectos; mientras que una unidad de producto que
contiene un defecto solo siempre es defectuosa.
2) Clasificar los defectos según su gravedad respecto a la calidad: un defecto de cada característica podría
tener diferente gravedad respecto a la calidad del producto.
Defecto crítico: podría ocasionar riesgos o inseguridades para los que utilizan dicho producto.
Defecto principal: tendría probabilidad de producir averías serias o reducir sustancialmente la utilidad del
producto.
Defecto secundario: desviaría de las especificaciones establecidas, pero sin graves consecuencias para el
producto. Sin embargo, se puede clasificar el defecto de una manera diferente que las mencionadas.
3) Establecer el nivel de calidad aceptable (NAC): NAC es el máximo porcentaje de unidades defectuosas o el
número máximo de defectos en 100 unidades alcanzables por la media del proceso para poder considerarse como
satisfactorio. El NAC en la práctica de muestreo se determina del modo siguiente:
a) El criterio para determinar el NAC está basado en exigencias técnicas. El NAC puede establecerse de acuerdo
con la gravedad del defecto.
b) Otro factor que se debe considerar es el efecto de aparecer el producto defectuoso en fabricación posterior
y en montaje. Si el producto ocasiona la pérdida de material o de tiempo de funcionamiento después del montaje,
el NAC debe ser más exigente.
c) La norma general para fijar un NAC, es establecer un equilibrio entre la calidad que se desea y la calidad que
se puede conseguir. Si el NAC es más exigente que el que se puede obtener, una cantidad excesiva de producto
será rechazada. Si el NAC es demasiado liberal, una cantidad excesiva de producto defectuoso puede ser aceptada.
d) Podemos obtener un medio efectivo para determinar la situación más económica de la inspección, mediante
el cálculo del punto de indiferencia. El punto de indiferencia se define como:
Costo de eminar piezas defectuosas por medio de la inspección
Punto de indiferencia =
Costo de recuperación causado por estas piezas defectuosas que no han sido apartadas
Al comparar el valor del punto de indiferencia con el promedio del material recibido:
- P = Pi: inspección por muestreo será económicamente ventajosa
- P > Pi: es preferible inspección 100% sin importar su costo.
- P < Pi, pero es errática: inspección por muestreo está indicada únicamente con fines de protección.
- P < Pi y estable: se puede prescindir por completo de la inspección.
4) Determinar el tamaño de lote para inspección: el término lote significa un conjunto de unidades de producto
que se requiere para la inspección, y sobre ese conjunto se extraerá la muestra de acuerdo con el plan de
muestreo.
El lote para inspección no es necesariamente igual a un lote de producción. El criterio para formar un lote de
producción está basado en la necesidad de suministro al mercado o en la capacidad de fabricación, sin tener en
cuenta las distintas fuentes de producción. En cambio, el criterio para formar un lote de inspección es procurar
tener la máxima homogeneidad de los productos en el lote. Para la homogeneidad de los productos, se tiene que
tener en cuenta que los productos no hayan sido fabricados con diferentes materias primas ni por distintos
procesos de fabricación.
Con respecto al tamaño del lote de inspección, en caso de que los productos sean homogéneos, el tamaño
del lote debe ser lo más grande posible, ya que esto proporciona dos ventajas:
Mejor protección para el consumidor
Costo total de inspección más bajo (ya que depende de la relación n/N)
5) Elegir un plan de muestreo: existen 3 tipos de planes de muestreo: simple, doble o múltiple. En el muestro simple,
la decisión de aceptar o rechazar un lote depende de una muestra única. Por otro lado, en el muestreo doble o
múltiple, se inspecciona de muestra en muestra y la decisión de verificar una nueva muestra, depende del
resultado de las anteriores.
Muestreo doble:
Muestreo múltiple: su fundamento es el ismo que el de muestreo doble, solo difiere en que la decisión para
aceptar o rechazar un lote esta basada en mas de dos muestras. En la práctica pueden usarse hasta 7.
La ventaja más destacada del muestreo doble sobre el simple o el múltiple sobre el doble es la económica,
ya que, a la larga, en el muestreo simple, el número de piezas inspeccionadas es mayor que en cualquier otra clase
de muestreo y el costo de inspección es proporcional al número de piezas inspeccionadas. La magnitud de esta
ventaja depende de: el nivel de calidad prefijada y el tamaño del lote
Para el caso de que los lotes enviados sean mejores que los prefijados, es evidente que el muestreo doble
lleva la ventaja sobre el simple, porque con la primera muestra se aceptan aquéllos; análogamente, si la calidad
es muy inferior a la prefijada se rechazan en la primera muestra.
Otra ventaja del muestreo doble o múltiple sobre el simple es el factor psicológico. Aunque cualquier plan
ofrece las mismas probabilidades de aceptación, en el muestreo simple el productor tiene una sola oportunidad.
El inconveniente en el muestreo doble o múltiple y es que, si la técnica de inspección es complicada, los
inspectores para no molestarse en sacar muchas muestras eligen de cualquier forma, pudiendo no ser aleatorias
El fundamento de este método es querer fotografiar la forma de distribución de las medidas del lote con una
muestra de 50 unidades, obteniendo el valor central y la dispersión de todo el lote, lo que permite compararlo
con las especificaciones establecidas.
Asimetría: Cuando la representación gráfica de 50 unidades del lote presenta una marcada asimetría o
truncamiento (no forma de curva normal) se deben modificar el cálculo de los limites de variación. En este caso,
no se calcula ni el recorrido, ni el promedio 𝑋̅. Se coloca d=0 en la frecuencia mayor que se denomina casilla modal
y se traza una línea en centro de esta casilla. Se llenan las columnas f y d como en los casos anteriores y se hallan
las columnas fd y fd2 en sus respectivas casillas. Para calcular los límites de variación de la representación gráfica,
se estiman tratando cada mitad de la distribución separadamente y como si correspondiera a una distribución
normal.
CSP-2: una vez iniciada la inspección, no se recurre a la inspección 100% cuando se encuentra cada defecto, sino
que se emplean sólo si el defecto ocurre en las siguientes k unidades o menos de la muestra. Este k se identifica
con i. Es decir, si dos defectos observados durante el muestreo están separados por k o menos unidades
inspeccionadas, se debe aplicar la inspección 100%. De lo contrario, se continúa el muestreo.
CSP-3: es una mejora del CSP-2 a fin de dar mayor protección contra una corrida súbita de mala calidad o contra
la producción esporádica. Cuando se encuentra una muestra defectiva, se inspeccionan las cuatros unidades
siguientes en la producción y si ninguna de éstas se encuentra defectuosa, se continúa el procedimiento de
muestreo como con CSP-2; si una de las cuatro unidades está defectiva, se reanuda de inmediato la inspección de
100% y se continúa de acuerdo con las reglas para CSP-2. En el CSP-3, el valor de i se utiliza para una f y un AOQL
dados y el mismo que en CSP-2.
Fijación de objetivos globales de fiabilidad: requiere un acuerdo sobre la fiabilidad como número, sobre las
condiciones ambientales reales a las que este número debe aplicarse y sobre una definición de lo que es buen
funcionamiento del producto. Por lo que ambas partes deben participar.
Prorrateo y predicción de la fiabilidad: La fiabilidad de un sistema es función de las fiabilidades de los diversos
subsistemas. Cuanto más fiables seas estos subsistemas, más fiables será el sistema total. El prorrateo de la
fiabilidad es el proceso de distribuir la cota final de fiabilidad entre los subsistemas.
Revisiones de diseño: mecanismo para pasar una completa revisión a un diseño propuesto a fin de asegurarse de
que dicho diseño puede fabricarse al costo más bajo posible y funcionar con éxito bajo las condiciones de
utilización previstas. Un programa adecuado usa los siguientes principios:
1) El equipo de revisión debe estar compuesto de los mejores técnicos disponibles, de dentro o de afuera de
la empresa.
2) La revisión incluye la participación de personal que no tenga relación con el diseño propuesto.
3) La revisión incluye no sólo la fiabilidad sino también producibilidad, mantenibilidad, etc.
4) La revisión se hace generalmente en función de criterios definidos, como las especificaciones.
5) Los problemas en potencia descubiertos por la revisión de diseño se documentan, asignando a individuos
determinados la responsabilidad de indagar más.
Ensayos de fiabilidad: ensayos realizados para verificar que un producto funcionará durante un tiempo dado.
Se concentran en 3 elementos:
1) Requisitos de actuación: se definen especialmente para cada producto. Una herramienta a usar puede
ser determinar por muestreo el uso real que del producto hacen los clientes, o bien, simular el uso por el
cliente.
2) Condiciones ambientales: temperatura, humedad, vibración, etc. Determinar los niveles ambientales
esperados y realizar ensayos para verificar que el producto pueda soportarlos.
3) Requisitos de tiempo: el tiempo que demande un programa de ensayo puede ser importante, por lo tanto,
existen 2 métodos para resolver este problema:
a. Hacer funcionar simultáneamente gran número de unidades durante menos tiempo.
b. Acelerar el ensayo haciendo funcionar las unidades bajo esfuerzos y/o niveles ambientales más severos
para que fallen antes. Luego se hacen extrapolaciones para convertir la vida bajo condiciones severas en vida
bajo condiciones esperadas.
Programas de componentes críticos: busca identificar los pocos componentes vitales que contribuyen
decisivamente a la fiabilidad del sistema total. Un componente se considera crítico si:
- Se usa en el equipo en gran número.
- Sólo puede obtenerse de una única fuente.
- Ha de funcionar dentro de estrechos límites.
- No tiene un historial probado de alta fiabilidad.
La lista de estos componentes sirve para planear programas de ensayo para evaluar componentes;
descubrir las causas de falla que exigen acción preventiva del diseñador, si va a usarse el componente y descubrir
las causas de falla que exigen procedimientos especiales de manejo durante la fabricación y utilización del
componente.
Análisis del modo de producirse y efecto de las fallas: estudia las causas y efectos de las fallas antes de finalizar
un diseño (preventivo). Proporciona al diseñador una manera metódica de examinar su diseño. Es de gran
importancia cuando los productos son complejos y cuando el diseño esta realizado por varias unidades.
Cuantificación de la mantenibilidad: a un sistema se le puede fijar un objetivo numérico total de fiabilidad. Esta
meta global se reparte a fin de determinar un objetivo para cada subsistema. La mantenibilidad puede predecirse
sobre el papel durante la fase de diseño y puede ser finalmente medida cronometrando el período requerido para
ciertas acciones de mantenimiento sobre unidades reales.
Compensación entre parámetros: se denomina así al proceso de equilibrar costos y efectos. El objetivo de una
industria es alcanzar una óptima efectividad global a un óptimo costo total. Esto puede llevar a un aumentar el
costo en una fase para reducir el costo y aumentar la efectividad en otra parte.
Disponibilidad: La disponibilidad es a veces una medida más apropiada que la fiabilidad. Mientras que la fiabilidad
es una medida del funcionamiento sin falla, la disponibilidad tiene en cuenta la fiabilidad como la mantenibilidad
ya que sus definiciones tienen en cuenta que se producirán fallas, pero que un buen programa de mantenibilidad
puede mejorar la efectividad total del producto.
La disponibilidad en tiempo es el porcentaje de tiempo en que un equipo está operativo. Se calcula así:
𝑇𝑀𝐸𝐹
𝑃𝐷 =
𝑇𝑀𝐸𝐹 + 𝑇𝑀𝐷𝑅
Disponibilidad de equipos es el porcentaje de equipos que estarán disponibles para su uso después de t horas
de funcionamiento debido al efecto combinado de las unidades que no fallen y de aquellas en las que se
restablezca el servicio dentro de un tiempo máximo especificado de ineptitud.
Disponibilidad de misión es el porcentaje de misiones de duración t en las que no se producirá ninguna falla
que no pueda reparase dentro de un tiempo máximo especificado de ineptitud.
Medición de la confiabilidad.
Vida útil de un producto: tiempo hasta que el producto sale de servicio abruptamente o de forma gradual.
Probabilidad de falla G(t): probabilidad de que una unidad salga de servicio antes de alcanzar su vida útil t.
Probabilidad de sobrevivir R(t): probabilidad de que una unidad supere una vida útil predeterminada t.
𝑅 (𝑡) = 1 − 𝐺(𝑡)
Tasa de fallas (λ): indica la probabilidad de que una unidad que todavía no salió de servicio hasta el momento t,
lo haga o “susceptibilidad a fallar”. Se corresponde con la fracción de unidades que van a salir de servicio, en
promedio, en el próximo intervalo de tiempo. En la práctica se determina según:
𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑓𝑎𝑙𝑙𝑎𝑠 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑓𝑎𝑙𝑙𝑎𝑠
𝜆= 𝑜 𝜆=
ℎ𝑜𝑟𝑎𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠 𝑑𝑒 𝑜𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛 𝑢𝑛𝑖𝑑𝑎𝑑𝑒𝑠 𝑝𝑟𝑜𝑏𝑎𝑑𝑎𝑠 ∗ 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 ℎ𝑜𝑟𝑎𝑠 𝑝𝑟𝑜𝑏𝑎𝑑𝑎𝑠
Si se traza el porcentaje acumulado de fallas contra tiempo, se obtiene una curva cuya pendiente
(pendiente de la recta tangente a la curva) en cada punto da la tasa instantánea de fallas. La tasa de fallas
promedio en cualquier intercalo es la pendiente de
la línea entre los puntos extremos del intervalo. La
curva característica de la vida del producto o curva
de la bañera, se grafica representando las tasas de
fallas a cada tiempo. La primera parte es el período
de falla temprana y tiene una tasa de falla
decreciente, luego viene un periodo estable
conocido como período de fallas aleatorias, a tasa de
fallas constantes, al final, la curva incrementa y se
denomina falla por desgaste.
T (recíproco de λ): para aquellos productos que deben reemplazarse cuando ocurre una falla, se denomina tiempo
medio hasta falla (MTTF) y para los productos reparables, se llama tiempo medio entre fallas (MTBF).
Modelos probabilísticos
El modelo probabilístico más general para estudiar la vida útil es la distribución de Weibull, que incluye
como caso particular a la distribución exponencial.
1 −1 𝑥−𝜇 2
[ ( ) ]
𝑓(𝑡) = 𝑒 2 𝜎
𝜎√2𝜋
Distribución exponencial:
La tasa de falla es constante. Significa que usar el producto no altera su probabilidad de fallar, mientras
un artículo funcione es tan bueno como nuevo. Es la distribución que corresponde al sector central de la curva de
la bañera.
𝜆(𝑡) = 𝛼
𝑓 (𝑡) = 𝛼𝑒 −𝛼𝑡
𝑅(𝑡) = 𝑒 −𝛼𝑡
1
𝐸(𝑡) =
𝛼
Distribución de Weibull:
α y β son parámetros de escala y de forma. Al modificarlos, la distribución asume diversas formas, por lo que es
una herramienta muy flexible de modelado. Se usa para modelar datos de falla de componentes de memoria y
elementos estructurales de autos y aeroplanos.
𝛽
𝑓 (𝑡) = 𝛼𝛽𝑡𝛽−1 𝑒 −𝛼𝑡
𝛽
𝑅(𝑡) = 𝑒 −𝛼𝑡
Predicción de la confiabilidad.
Al efectuar una predicción de la confiabilidad se debe tener en cuenta la relación entre las componentes
susceptibles a fallar. Para predecir la confiabilidad de un equipo, es necesario conocer su configuración y la
confiabilidad de los componentes.
R1
1
R1 R2 R2
Paralelo
1
Serie 𝑅(𝑡) = 𝑃 (𝑇 > 𝑡) = 1 − 𝑃(𝑇 ≤ 𝑡)
𝑅 (𝑡) = 𝑃 (𝑇1 > 𝑡) ∗ 𝑃(𝑇2 > 𝑡) 𝑅(𝑡) = 1 − {[1 − 𝑃 (𝑇1 > 𝑡)] ∗ [1 − 𝑃(𝑇2 > 𝑡)]}
𝑅(𝑡) ≤ 𝑀𝑖𝑛 [𝑅1 (𝑡); 𝑅2 (𝑡)] 𝑅(𝑡) ≥ 𝑀𝑎𝑥 [𝑅1 (𝑡); 𝑅2 (𝑡)]
𝑅 = ∏ 𝑅𝑖 𝑅 = 1 − (∏ 𝑅𝑖 )
Unidad 5: Calidad de servicio.
La calidad es una función permanente en una organización de servicios. Son las personas de la
organización las que determinan si la función de la calidad se está llevando a cabo o no de una forma aceptable.
El cliente es quien juzga finalmente si la calidad de esos bienes y servicios es satisfactoria y aceptable.
CONTROL ON LINE
COMPRA
Establecimiento de pautas de
Control de insumos recepción de materias primas:
Selección de Proveedores Planes de muestreo
Uso de tablas
Costos
PRODUCCIÓN
Gráficas de control
Control de procesos Gráficas especiales
Estudios de capacidad de procesos
VENTA
CONTROL OFF LINE
SERVICIO POST-VENTA
INVESTIGACIÓN Y DESARROLLO
ESPECIFICACIÓN
Parámetros de calidad:
Del producto y materiales
o Diseño de parámetros
Normalización y estandarización
o Calidad de diseño
DISEÑO DEL PROCESO o Calidad de concordancia
o Disponibilidad
Del producto y materiales
Normalización y estandarización o Confiabilidad
o Servicio al cliente
o Determinación de garantías.
Se distinguen dos aspectos en el estudio de la calidad de un producto: La calidad del diseño (Off Line) y la
calidad de conformidad (On Line).
La calidad Off Line se relaciona con la correcta identificación de necesidades y expectativas del cliente, el diseño
de un producto que cubra esas necesidades y proceso de manufacturación sea consistente y económico y el
desarrollo de especificaciones, procedimientos y equipos de manufacturación que sean adecuados. Etapas:
Los métodos Taguchi son técnicas estadísticas tendientes a determinar las mejores condiciones de
variables de producto y proceso de fabricación. Mejores refiere al menor costo con la mayor unidad de
conformidad. También desarrollo el concepto de función de pérdida de calidad para relacionar el costo de la
calidad directamente con la variación de un proceso.
Las variaciones del entorno: Los elementos de pérdidas pueden ser internas o externas. Internas: cuanto más
variable sea el proceso de manufactura, más desperdicios se general y más tendrá que gastar la compañía en
probar e inspeccionar para determinar la conformidad. Externamente, los clientes descubrirán que el producto
no dura tanto ni funciona tan bien si no está cerca del valor objetivo.
Se sabe intuitivamente que, al reducir la variación, mejora la calidad. Pero casi nunca se piensa en términos del
valor de la baja variabilidad. Se sabe que es imposible
tener una variabilidad de 0, por lo tanto, se establecen
especificaciones que definen no sólo el valor objetivo de
algo, sino también límites aceptables, ej: 10±0.02
pulgadas. Una manera tradicional de interpretar esto es
que cualquier pieza que esté dentro del rango permitido
(9.98 – 10.02) es igual de buena a las demás, mientras que
cualquier pieza que esté por afuera del rango se considera
totalmente mala. En esta visión, el costo es cero en todo
el rango de las especificaciones para la sociedad (se asume
comportamiento perfecto) y luego hay un salto abrupto en
el costo al salir del límite.
Desde el punto de vista del cliente, muchas veces no existe ninguna diferencia entre un producto que
cumple muy justamente las especificaciones y un producto que esta ligeramente por fuera de ellas. Sin embargo,
existe mucha diferencia entre la calidad de un producto en la especificación deseada y la calidad de uno cerca del
límite.
Esta visión no refleja que, a medida que los clientes se vuelven más exigentes, existe presión para reducir
la variabilidad.
En base a esto, propone un gráfico más adecuado, en el que
el costo está representado por una curva suave, ya que el
cliente no ve una línea muy definida, sino una graduación
de aceptabilidad. Una curva parabólica cuando los límites
de especificación son simétricos. La pérdida es cero en el
valor objetivo, son pequeñas en sus cercanías y aumentan a
un ritmo mayor al alejarse de este. Si los artículos se
desechan cuando están fuera de especificación, la curva se
aplana a un valor del costo de desperdicios ya que, al no
venderse, nunca significaran una pérdida para la sociedad.
En los otros casos se aplica:
𝐿 = 𝐾(𝑥 − 𝑎)2
L= pérdida para la sociedad asociada con una unidad de producto producida a un valor x.
a = objetivo o meta. Suponer que, en a, L=0
K= cte
𝐾 = 𝑐/𝑑2 = 𝑐𝑡𝑒
c = pérdida asociada con una unidad de producto producida en un límite de especificación, suponiendo que en a
L=0.
d = distancia desde el objetivo hasta el límite de especificación.
∑(𝑥 − 𝑎)2
̅𝐿 = 𝐾[ ]
𝑛
Cuando estos datos se conocen, se pueden aproximar bastante a la pérdida promedio por:
Existe cierta dificultad en el cálculo de c. Se planteó que valga una décima parte del precio de venta de un
ítem. Esto significa que, si una unidad estuviera justo al límite, existe una posibilidad razonable de que no pase la
inspección final o de que el cliente tenga problemas, por lo que redundaría en una perdida para el cliente y
posibles devoluciones por garantía.
Unidad 6: test de hipótesis.
Introducción: refiere a decidir si un valor obtenido a partir de la muestra es probable que pertenezca a la
población. En general, la media en una muestra suele ser distinta a la media de la población de la cual se extrae
la muestra. Lo normal suele ser que tal diferencia entre la media muestral y poblacional sea pequeña y debida al
azar, pero podría suceder que dicha diferencia no esté justificada por el azar y se deba a un cambio en la población,
y debamos modificar los datos que conocemos previamente.
Hipótesis estadísticas: son los supuestos sobre las poblaciones, que pueden ser ciertos o no, que se realizan a
partir de los datos sobre las muestras. El test de hipótesis se define como el procedimiento estadístico mediante
el cual se investiga la verdad o falsedad de una hipótesis acerca de una población o poblaciones. Dichas hipótesis
se formularán sobre la media poblacional μ o la proporción poblacional p.
Llamaremos hipótesis nula (Ho) a la hipótesis que se formula y por tanto se quiere contrastar o rechazar,
e hipótesis alternativa (H1) a cualquier otra hipótesis que sea diferente de la formulada, y que sea contraria a Ho,
de forma que la aceptación de la hipótesis nula H0 implica el rechazo de la alternativa H1 y viceversa. Son
mutuamente excluyentes y colectivamente exhaustivos. Pueden ser: de desigualdad o igualdad.
Error tipo I: Hay ocasiones en las que Ho es cierta, pero a la vista de la muestra tengamos que rechazarla.
El error que consiste en rechazar la hipótesis nula cuando ésta es verdadera.
Error tipo II: error que ocurre cuando, siendo H0 falsa, las evidencias de la muestra nos llevan a aceptarla.
Este error, es cometido al aceptar Ho cuando ésta es falsa.
Siendo:
Al tener ya formulada la hipótesis nula, es necesario que las evidencias sean muy fuertes para rechazarla;
es decir, puede que haya cambios debidos al azar, en cuyo caso el cambio no es significativo, y no cambiamos,
pero puede que los cambios sean debidos a otras causas. En este último caso es cuando el cambio es significativo
y rechazaremos.
Intervalo de aceptación: fijar un cierto intervalo dentro del cual es normal que haya cambios porque son debidas
al azar, es decir, una región tal que, si el parámetro se mantiene en dicho intervalo, nos seguimos quedando con
Ho. Será mayor o menor dependiendo del nivel de confianza que precisemos, 1 − α.
Región critica o de rechazo: región que queda fuera de la región de aceptación indica que en este caso los cambios
no se pueden atribuir al azar, y por tanto hemos de rechazar H0 y aceptar H1.
Contraste bilateral (o de dos colas): En este caso la región de rechazo o región crítica está formada por dos
conjuntos de puntos disjuntos. Dicho caso se presenta cuando la hipótesis nula es del tipo H0: μ = y la hipótesis
alternativa, por tanto, es del tipo H1: μ ǂk . El nivel de significación α se concentra en dos partes (o colas) simétrica
respecto de la media. La región crítica para un cierto nivel α sería, en la N (0;1):
Contraste unilateral (o de una cola): En este caso la región crítica está formada por un conjunto de puntos, por lo
que el nivel de significación α se concentra sólo en una parte o cola. Este caso se presenta cuando la hipótesis
nula es del tipo Ho: μ ≥ k y la hipótesis alternativa, por tanto, es del tipo H1: μ < k. A nivel de confianza (1-α), las
regiones serían, en la N (0;1):