Vous êtes sur la page 1sur 154

CAPITULO II: MARCO TEORICO

2.1. ANTECEDENTES
Los antecedentes de esta investigación se pueden dividir en trabajos relacionados
con:

A. Diseño óptimo basado en metamodelos


B. Diseño óptimo basado en confiabilidad
C. Diseño de estructuras basado en fatiga
D. Diseño de pedales de freno tipo FSAE
E. Propiedades estocásticas del aluminio

A. DISENO ÓPTIMO BASADO EN METAMODELOS


2.1.1. Zerpa y Queipo (2004)
En el artículo de investigación destaca la importancia de los modelos sustitutos en
la actualidad y el gran auge que han tomado en el presente diseño ingenieril. Aporta la
información básica para la metodología de generar un modelo sustitutos, siendo estos
métodos computacionales desarrollados en mecánica de sólidos, transferencia de calor,
mecánica de fluidos, y muchos otros campos de la ingeniería que pueden ser de gran ayuda
para entender los sistemas físicos que ellos simulan. Generalmente, se desea usar estas
simulaciones como prototipos virtuales para obtener un diseño óptimo de un sistema en
particular. A su vez, se busca mejorar la utilidad de estos métodos computacionales
habilitando su uso como herramientas de diseño, de forma tal que las simulaciones puedan
ser usadas no sólo para simples predicciones, sino también para la determinación
automatizada del mejoramiento del desempeño del sistema a través del ciclo de vida del
producto.

El analista o diseñador a menudo se crea ciertas interrogantes tales como ¿cuál es


el mejor diseño?, ¿cuán seguro es?, y ¿cuán seguros estamos de la respuesta? Que
pueden ser respondidas al generar un buen modelo sustituto del sistema con finalidades de
optimización como minimizar el peso, costo o defectos; limitar la temperatura crítica,
esfuerzos, o vibración; o maximizar desempeño, confiabilidad, producción,
reconfigurabilidad, agilidad, o robustez del diseño.

Los autores afirman que el diseño basado en modelos sustitutos hace referencia a
la idea de construir un modelo alternativo de rápida ejecución (sustituto) a partir de data de
simulación numérica y luego usarlo con propósitos de optimización y análisis. Un método
sistemático rápido para determinar soluciones óptimas permitirá la obtención de mejores
diseños, mejorará el desempeño de sistemas y reducirá la dependencia a prototipos y
ensayos, lo que acortará el ciclo de diseño y reducirá los costos de desarrollo.

En ingeniería el uso de simuladores de alto costo computacional no es un método


que pueda aplicar cualquier investigador, debido a la alta inversión que se necesita. Es por
ello, que este trabajo de investigación destaca la importancia del uso de metamodelos para
optimización de diseños de sistemas donde sus características más relevantes son de
naturaleza de rápida ejecución, aproximan la respuesta a la de un simulador computacional
junto con algoritmos de optimización. Este trabajo aporta información sobre la metodología
para construir y generar un modelo sustituto o metamodelo de optimización.

Fig. (1) Etapas de construcción del modelo.


Fuente: Zerpa y Queipo (2004)

El proceso continuará, no sólo hasta obtener un modelo satisfactorio sino hasta


lograr un buen modelo que no pueda ser mejorado por este proceso adaptativo.
B. DISENO ÓPTIMO BASADO EN CONFIABILIDAD
Tabla 1 Tabla resumen de artículos consultados sobre diseño óptimo de estructuras basado en confiabilidad (RBDO)

Análisis de Algoritmo de
Autor/Afiliación Año Estructura Dimensión F. Obj Restricción (Pf) Metamodelos
Confiabilidad optimización
PMA
Atenuador de impacto
Choi K.K y Youn B.D 2002 9 Masa Fluencia(0.0013) RS AMA GA
lateral de un Vehículo
MCS
Youn B. y Col. 2005 Modelo de vehículo 11 Masa Fluencia(0.09) RS PMA GBO
Atenuador de impacto
Du L. y Col. 2006 10 Masa Fluencia(0.02275) PMA GA
lateral de un Vehículo
RS
RBF
Barra/Brazo de control GP
Solanki K. y Col. 2007 42 Masa Fluencia(Beta 8) AMV+ GA
de suspensión Kriging
NN
SVR
MSR
Nguyen T. y Col. 2009 Entramado de 6 barras 6 Masa Fluencia (0.001) GBO
Monte Carlo
Valdebenito M. y Estructura de Max. SS
2009 2 Volumen GBO
Schueller G. Entramado Desplazamiento(1x105) Monte Carlo
Atenuador de impacto
Deb K. y Col. 2009 10 Masa Fluencia(0.00125) PMA GBO
lateral de un Vehículo
Estructura de soporte Max. Desplazamiento
Zhang y Ohsaki 2009 1 Masa Kriging Monte Carlo SA
tipo arco para gimnasios (0,0228)
Costo efectivo para la Costo de Op.
Acar y Col. 2010 3 Fluencia (10-7) RS Monte Carlo GBO
estructura de un avión Directo
RIA
Aoues Y. y
2010 Entramado de 5 barras 3 Masa Pandeo(0.0001) PMA GBO
Chateauneuf A.
SORA
Algoritmo
Análisis de
Autor/Afiliación Año Estructura Dimensión F. Obj Restricción (Pf) Metamodelos de
Confiabilidad
optimización
Fluencia (0.0001078) SORA
Celorrio L. y Col. 2010 Estructura articulada de 10 barras 7 Masa PMA GBO
Pandeo(0.0001078)
RIA
FORM
Max.
Bezzazi M. y Col. 2010 Columna Simple 4 Rigidez SORM GBO
Desplazamiento(0.05)
ISM
Fluencia (0.01) PR
Ruichen J. y Col. 2010 Estructura de 2 barras 2 Volumen RBF N/A GBO
Pandeo(0.01)
Kriging
Fatiga alto Monte Carlo
Lee I. y Col. 2010 Barra de torsión 8 Costo D-Kriging GBO
ciclaje(0.02275) FORM
Columna en Voladizo 6 Costo Pandeo(Beta 3) Kriging FORM
Kriging SORA
Dubourg V. 2011 Estructura de soporte 8 Masa Pandeo(Beta 2) GBO
N-FORM
Max. Desplazamiento(
Entramado 23 barras como puente 10 Volumen Kriging N-FORM
Beta 3)
ISM
Multi-FORM
Dubourg V. y Col. 2011 Techo - Concha Acústica 93 Rigidez Pandeo(2,06x104) Kriging GBO
SS
Monte Carlo
Gu L. y Yang J. 2011 Vehículo para prueba de impacto 2 Masa Fluencia(0.1) RS Monte Carlo GBO
Zhao y Col. 2013 Tubo en voladizo 8 Volumen Fluencia(0.02275) D-Kriging N/A GBO
Yoo D. y Lee I. 2014 Tubo en voladizo 9 Rigidez Fluencia(0.02275) Monte Carlo GBO
Kusano I. 2015 Puente colgante 43 Volumen Fluencia (2,86x10-26) FORM GBO
2.1.2. Celorrio y Col. (2010)
Este aporte de investigación se basa en la premisa de que un método de diseño
realista tiene que considerar las incertidumbres en las variables de diseño y en los
parámetros de la estructura. Donde en un mercado tan competitivo y globalizado como el
actual exige que los diseñadores utilicen métodos adecuadas para obtener diseños que
sean óptimos y que, además, sean fiables. Estos métodos son tratados en el campo de la
Optimización de Diseño Basada en Fiabilidad (RBDO). Este trabajo estudia la eficiencia de
estos métodos aplicados a problemas estructurales caracterizados por variables aleatorias
dependientes y, en general, no normales. Generalmente, la función de distribución conjunta
de este vector aleatorio no es conocida. En este artículo se aplican diferentes métodos
RBDO al diseño de una estructura. Se comprueba la eficiencia y convergencia de estos
métodos.

La Optimización de Diseño Basada en Fiabilidad (RBDO, del inglés “Reliability


Based Design Optimization”) estudia problemas de diseño en los que se trata de obtener el
mínimo de cierta función objetivo sujeta a unas restricciones que son probabilistas, puesto
que intervienen variables aleatorias.

El fin de RBDO es obtener un diseño que minimice determinada función objetivo


asegurando la fiabilidad adecuada. Existen diversas formulaciones de problemas de
optimización bajo incertidumbre, dependiendo del tipo de función objetivo y de las
restricciones. En el caso del diseño de estructuras la formulación más habitual consiste en
minimizar una única función objetivo, el peso del diseño o estructura, sujeto a restricciones
de fiabilidad a nivel de componente. Los investigadores han tratado de buscar métodos
eficientes y robustos que eviten el alto coste computacional y las dificultades de
convergencia de los métodos iniciales. Es por ello que es de suma importancia seleccionar
el método adecuado para el estudio que se realizará, donde información proporcionada por
este articulo será de gran importancia para elegir el método a aplicar. Los resultados se
verifican mediante Simulación de Monte Carlo (MCS) con Muestreo por Importancia.

El análisis se aplicó a una estructura de 10 barras donde es sometida a cargas


aleatorias correlacionadas, que busca minimizar el volumen de la misma.
Fig. (2) Estructura de 10 barras – Objeto de estudio.
Fuente: Celorrio, Martínez, Bao, Martínez y Fernández (2010)

Los resultados obtenidos por los autores muestran la importancia de considerar la


correlación entre las variables aleatorias, donde el número de iteraciones de optimización
(Iters. OPT) y el número de evaluaciones de funciones de estado límite (LSFE) o
restricciones probabilistas son el mejor indicador de la eficiencia de los métodos aplicados,
en este caso, PMA, RIA y HMV+(SORA). Las tablas también proporcionan información
sobre la eficiencia de los métodos RBDO. Así, el método RBDO-PMA resultó el más
eficiente, aunque se precisó de un ajuste adecuado de los parámetros del método.

2.1.3. Bezzazi, El Ghoudbzouri y Khamlichi (2010)


Esta investigación se enfoca en las incertidumbres de parámetros para evaluar la
fiabilidad del diseño mecánico. En el caso de este estudio se centran varias metodologías
que se dedican al análisis de fiabilidad. Su simplificación es un inconveniente crucial para
generalizar su aplicación a los problemas que contienen una gran cantidad de variables
aleatorias.

Los enfoques de fiabilidad que se examinan incluyen el acoplamiento completo de


un código de elementos finitos externo con herramientas informáticas dedicadas a la
fiabilidad. Seis metodologías se consideran: Método de primer orden de la fiabilidad
(FORM), método de segundo orden de la fiabilidad (SORM) con tres variantes (fórmulas de
Breitung, Hohenbichler-Rackwitz y Tvedt) y el método del muestreo importante (ISM), que
es una variante pertinente de las simulaciones de Monte Carlo. Para optimizar el número
de iteraciones al usar ISM se ha estudiado la influencia del coeficiente de la variación
empleado para probar la convergencia sobre los datos de fiabilidad. El análisis de fiabilidad
por elementos finitos es una técnica que combina el análisis por elementos finitos
estocásticos con un cierto modo de funcionamiento que define un estado-límite dado. Esta
práctica depende de la respuesta del análisis por elemento finito, y eso resulta
generalmente como una función implícita de los datos de entrada. La operación separa el
espacio de datos en dos regiones: la región segura y la región de fallo. La probabilidad de
fallo se liga a la distancia mínima que separa el diseño actual del punto más probable de
fallo que se sitúa en la superficie límite, llamada también el punto del diseño. Se utiliza el
método de Monte Carlo para evaluar la probabilidad de fallo. Pero como este proceso no
es conveniente cuando la función de la superficie límite está implícita, la búsqueda del punto
del diseño habitual se realiza mediante diversas técnicas aproximadas del análisis de
fiabilidad

La investigación tiene fundamentos basados en que la fiabilidad de estructuras es


un tema que ha generado mucho interés en los últimos años. La evaluación de los estados
de improvisación se realiza en términos de probabilidades. Para encontrar estas
probabilidades, se requieren un modelado numérico adecuado del comportamiento
estructural y una descripción admisible de la propagación de la incertidumbre de las
variables básicas en las respuestas consideradas. Las incertidumbres que aparecen en el
problema provienen de las características aleatorias de los materiales, dimensiones
geométricas o fuerzas aplicadas.

Los resultados obtenidos indican que para varios casos de estudios, los métodos
aproximados FORM y SORM producen resultados similares en términos de índice de
fiabilidad y probabilidad del colapso que lo producidos por el método ISM más exacto. Esto
permitió la evaluación de la validez del método rápido y aproximado FORM para estudiar el
análisis de fiabilidad en el caso del diseño elástico de los pórticos. La influencia sobre la
fiabilidad de las distintas distribuciones de probabilidades, dependiendo de exactamente
dos parámetros estadísticos introducidos para modelar incertidumbres como variables
aleatorias continuas, esta examinada.
Fig. (3) Estructura a estudiar aplicando métodos de RBDO (Pórtico con carga Lateral).
Fuente: Bezzazi, El Ghoudbzouri y Khamlichi (2010)

El trabajo aporta información y conclusiones sobre los resultados obtenidos


indicando que la fiabilidad depende de manera significativa de las funciones de distribución
de la probabilidad utilizadas y no sólo de su media y variación. Además de que muestra que
el análisis de fiabilidad que usa acoplamiento completo entre un código de elementos finitos
y Monte Carlo es demasiado lento para los problemas prácticos con un gran número de
variables aleatorias. Mostrando razones e indicando el porqué, ya que la función del
estado-límite y sus derivadas deben ser evaluadas a partir de cálculos por elementos finitos.
De esta manera, esta investigación destaca que al usar un sub-método como lo es el ISM
(Importance Sampling Method) combinado con el FORM, alrededor del punto más probable
de fallo.

Los resultados obtenidos ayudan a observar los métodos considerados SORM con
sus tres variantes e ISM dando resultados muy cercanos en términos de índice de la
fiabilidad y de la probabilidad de fallo. El método FORM da resultados que están cercanos
pero no estrictamente idénticos al método más exacto anterior. FORM sobrestima el índice
de la fiabilidad y subestima así la probabilidad de fallo. El método ISM requiere mucho
tiempo, algo previsto, en comparación con los métodos aproximados FORM y SORM con
sus tres variantes. Se ha mostrado que el método aproximado FORM no predice los mismos
resultados que los métodos aproximados más exactos de análisis de fiabilidad ISM y
SORM. La diferencia relativa máxima entre FORM y los dos otros métodos ha alcanzado el
18% en el caso de los estudios que se han considerado en este trabajo. El método ISM es
siempre más largo que las aproximaciones FORM o SORM. Sin embargo, estas
conclusiones realizadas por los autores no se pueden generalizar ya que para ello se
necesitaría realizar investigaciones futuras más exhaustivas.
2.1.4. Choi y Youn (2002)
En este estudio los autores buscan concentrar todos los esfuerzos por desarrollar
los problemas de Diseño Optimo Basado en Fiabilidad (RBDO) en una investigación que
compare varios métodos en este caso AMA (Approximate Moment Approach), RIA
(Reliability Index Approach) y PMA (Performance Measure Approach) para encontrar el
acercamiento probabilístico más efectivo. En donde se busca mostrar a fondo las ventajas
en términos de precisión numérica, simplicidad y estabilidad que obtiene presenta cada
método con ejemplos numéricos. Considerando que la literatura y otras investigaciones
apuntan que el método PMA es más eficiente y estable que el método RIA, este no fue
considerado en la investigación.

La finalidad del estudio surge ya que significantes avances computacionales usados


por los ingenieros diseñadores le dan oportunidades de explorar muchas más alternativas
que los simples y antiguos modelos de simulaciones físicos. Es por ello que el Diseño
Optimo Basado en Fiabilidad (RBDO) es de gran importancia ya que no solo provee una
eficiencia en el costo de manufactura si no también resultados de objetivos más precisos.

Sin embargo, un reto importante aún permanece con respecto a la metodología


RBDO en la obtención de diseños óptimos a base de fiabilidad para los modelos
multidisciplinares a gran escala usando un número limitado de análisis de diseño. Por otra
parte, para ciertas áreas de aplicación, la falta de información sobre la sensibilidad de
diseño crea una dificultad considerable en el uso de métodos RBDO. Para superar esta
dificultad, los métodos RBDO a menudo se integran con el método de superficie de
respuesta (RSM), que se compone de técnicas de representación de función y diseño de
experimento (DOE). El RSM es muy atractivo para su uso en RBDO, ya que las muestras
de diseño limitadas pueden producir aproximaciones de superficie de respuesta, tanto para
el análisis de la fiabilidad como la optimización del diseño.
Tabla 2 Comparación de características entre AMA y PMA para RBDO.
Fuente: Choi y Youn (2002)

AMA PMA

 Sensibilidad de diseño de 2do orden  Sensibilidad de diseño de 1er


es necesaria para la optimización del orden es necesaria para la
diseño. optimización del diseño.
 Difícil de describir de manera precisa  Fácil de describir un objetivo de
un objetivo de fiabilidad usando. fiabilidad usando.
 Diseño sigma  Diseño sigma)
 Incapaz de manejar con todas los  Capaz de tratar con todas los tipos
tipos de distribuciones de variables de distribuciones de variables
aleatorias de entrada. aleatorias de entrada.
 Inexacta para la distribución no  Preciso para cualquier tipo de
normal y sesgada de salida, incluso distribución de salida con
con pequeñas variaciones. variaciones largas.
 Grandes errores en estimación de  Errores pequeños en estimación
fiabilidad para grandes objetivos de de fiabilidad para grandes
fiabilidad. objetivos de fiabilidad.
 No es fácil para integrarse con el  Idealmente adecuado para
método de RSM. integrarse con el método de RSM
 No es adecuado para multidisciplinas  Muy adecuado para las
de RBDO multidisciplinas de RBDO

En los resultados, son comparados en términos numéricos la precisión y estabilidad.


5 diferentes distribuciones fueron usadas para 5 diferentes objetivos de confiabilidad. En
los análisis por los autores, la fiabilidad es evaluada por el método Monte Carlo en el diseño
óptimo para un objetivo de confiabilidad  

Debido a la imprecisión definiendo restricciones probabilísticas en RBDO, AMA


puede tener regiones no factibles para las 5 funciones de objetivo, mientras que el método
PMA presenta regiones factibles con precisión en restricciones probabilísticas.

En este trabajo se demuestra de forma notoria bajo con algunos ejemplos numéricos
que el método de PMA es sustancialmente atractivo en comparación con otros métodos de
aproximación probabilísticos en RBDO.

2.1.5. Kusano I. (2015)


Este trabajo consiste en la aplicación de optimización probabilista (RBDO) a puentes
colgantes de gran tamaño considerando condiciones de constantes pandeo mediante tres
métodos diferentes de RBDO. Se consideró la existencia de incertidumbre en la velocidad
extrema del viento en el emplazamiento del puente, y en las funciones de pandeo constante
obtenidas experimentalmente en túnel de viento.

Se plantean dos casos de optimización probabilista; en el primero únicamente se


optimiza el volumen del cajón del puente variando los espesores de las chapas que forman
el cajón, mientras que en el segundo se minimiza tanto el volumen de los cables principales
como el tablero del puente. En ambos casos, se desea obtener diseños óptimos que
satisfagan un valor prefijado de la seguridad estructural frente al fenómeno del pandeo,
además de otras restricciones de tipo determinista.

Para resolver este problema, se programan en Matlab los métodos de RBDO


mencionados anteriormente, código que ejecuta un modelo de elementos finitos realizado
en Abaqus para obtener las respuestas estructurales y el código FLAS, desarrollado por el
grupo de investigación, para realizar el análisis de fluctuaciones. Las formulaciones de
RBDO propuestas se han aplicado a dos ejemplos de puentes colgantes de gran tamaño
como el Great Belt East Bridge en Dinamarca y el proyecto del Puente de Messina en Italia.
Los resultados obtenidos por los diferentes métodos de RBDO (PMA, RIA y SORA) se
comparan en términos de precisión y eficiencia computacional.

Para estimar la probabilidad de falla se implementó el método de FORM,


comparándose con dos diferentes métodos como lo son MCS (Monte Carlo Sampling) y
LHS (Latin Hypercube Sampling), concluyendo que este método fue el más eficiente
computacionalmente el cual fue utilizado para estimar la confiabilidad en los ejemplos de
esta investigación, a pesar de que el error es considerablemente mayor en relación a los
métodos utilizados.

Los autores observaron que el método más efectivo estudiado en la evaluación de


la estructura fue el SORA comportándose como más efectivo y eficiente
computacionalmente hablando.

Esta investigación fue de suma relevancia para la presente investigación debido a


que la metodología y bases teóricas utilizadas son de gran parecer a la que se aplicará en
el trabajo especial de grado, donde se estudia una estructura para la optimización de una
función objetivo (en este caso el volumen) bajo la formulación de un problema RBDO con
la utilización de varios métodos y la finalidad de determinar y concluir cuál de los métodos
aplicados fue el más sencillo y eficiente.
C. DISEÑO DE ESTRUCTURAS BASADO EN FATIGA
2.1.6. Pappa y Col. (2013)
Este artículo se basó en estudiar el comportamiento a la fatiga de codos de acero a
bajos números de ciclos bajo la acción de fuertes cargas aplicadas. El estudio se lleva a
cabo a través de avanzadas herramientas de análisis tales como la teoría de elementos
finitos, apoyándose en datos de pruebas a escala real. Los resultados numéricos (en
modelos de elementos finitos) son entonces comparados con las mediciones
experimentales de esfuerzos a través de galgas extensiométricas para su posterior análisis.
Así mismo, se realizan estudios paramétricos con enfoque en la relación diámetro-espesor
de los codos y su efecto en el comportamiento de la fatiga a bajo ciclos, haciendo hincapié
en la variación de los esfuerzos producidos. Una vez calculadas variaciones de tensiones
en puntos críticos de los codos, se puede estimar el número de ciclos hasta el punto de
fractura. Esta investigación aporta bases teóricas y metodologías a emplear para el estudio
de estructuras sometidas a fatiga bajo ciclaje.

D. DISEÑO DE PEDALES DE FRENO TIPO FSAE


2.1.7. Martínez y Clara (2012)
Este trabajo de investigación tiene como principal objetivo diseñar y construir una
pedalera con el modelo más ligero y fiable posible, ya que el vehículo de Formula SAE LUZ
poseía una pedalera que no solo fallaba sino que presentaba ciertas deformaciones, así
como también las fallas en el diseño anatómico y ergonómico de la misma. Todas estas
fallas fueron estudiadas para optimizar y mejorar el diseño antes mencionado donde se
realizaron pruebas de diseño justificando cuidadosamente cada parámetro de diseño para
cumplir con todas las normas que rige la competencia internacional. Esta investigación
contribuyó notablemente al desarrollo de la geometría final utilizada para evaluar el diseño
del pedal tipo FSAE. El aporte significativo de la investigación incluye al pedal como punto
de comparación en el ámbito de la geometría donde sus variables y parámetros
geométricos sirven como data histórica.
Fig. (4) Pedal de freno de equipo FSAE LUZ 2010.
Fuente: Martínez y Clara (2012)

También se estudió y analizó el pedal de Formula SAE 2010 para verificar que el
máximo esfuerzo generado en la estructura no supere la resistencia a la fluencia del mismo,
concluyendo que el diseño 2010 del pedal presentaba fallas ya que los esfuerzos máximos
generados (1297 MPa) superaban la resistencia a la fluencia del material (Acero ASTM
A36) que en este caso era de 250 MPa.
Fig. (5) Factor de seguridad del pedal de freno 2010 FSAE LUZ.
Fuente: Martínez y Clara (2012)

Se aprecia en la Fig. (5) que las áreas sombreadas en rojo representan un factor de
seguridad menos a la unidad indicando las zonas en donde este falla.

Datos del diseño geométrico fueron fundamentales para generar la base geométrica
del pedal a estudiar.

Tabla 3 Características del pedal de freno final por Martínez y Clara.


Fuente: Martínez y Clara (2012)

CARACTERISTICAS
Material Aluminio 6061
Sy 145 MPa
Masa 220,62 g.
Von Mises 91,21 MPa
Factor de seguridad 1,59
Volumen 8,14xe+4 mm3

Estos últimos valores fueron vitales para tener un patrón de comparación del nuevo
diseño a estudiar de manera que presente un comportamiento más óptimo de la estructura.
2.1.8. Abreu y Fuenmayor (2015)
El objetivo principal de esta investigación fue rediseñar y construir una pedalera para
el vehículo Fórmula SAE de la Universidad del Zulia que presenta mejoras en comparación
al sistema diseñado y construido por Clara y Martínez en el año 2012, debido a que en una
prueba realizada a la pedalera, el pedal y eje de freno sufrieron una deformación con la
aplicación de una fuerza menor a la requerida por las normas de SAE. El diseño de la
pedalera se realizó meticulosamente considerando en todo momento el reglamento
establecido por la Fórmula SAE 2015, además de considerar los materiales más
económicos y disponibles en el mercado.

Para evitar la construcción innecesaria de modelos a escala, se utilizó una


herramienta computacional para simular y encontrar un diseño óptimo de cada componente
mediante el método iterativo de ensayo y error; de esta manera se disminuye la
incertidumbre de falla y se logra un sistema funcional adecuado.

De este trabajo de investigación, además de aportar dimensiones para la geometría


del pedal, se tomaron varias conclusiones realizadas tales como la deformación que ocurrió
en el pedal propuesto por Clara y Martínez (2012) producto del mal análisis de esfuerzo
determinístico que se realizó, debido a que no se tomaron en cuenta las incertidumbres
existentes. Además, datos como esfuerzo de Von Mises, deformación y peso fueron de gran
utilidad para posteriormente servir como punto de comparación para el diseño y estudio del
pedal tipo FSAE.
Fig. (6) Posicionamiento de galga extensiométrica para determinar la deformación.
Fuente: Abreu y Fuenmayor (2015)

2.1.9. Guerrero y Ocando (2012)


El aporte investigativo de los autores consistió en diseñar y construir un pedal de
freno para un vehículo tipo formula SAE aplicando la metodología Taguchi. El propósito
radica en aumentar la calidad del pedal de freno del grupo formula SAE de La Universidad
Del Zulia. Para ello, se procedió con la siguiente metodología:

1) Determinar los parámetros óptimos para diseñar un pedal de freno a través


del enfoque Taguchi.
2) Diseñar un pedal de freno funcional basado en factor de seguridad que
cumpla con los parámetros de diseño.
3) Formular el problema del diseño robusto de un pedal de freno.
4) Determinar para el pedal de freno, los valores óptimos de las variables de
diseño mediante el enfoque Taguchi.

Este estudio se realizó con la intención de reflejar las ventajas que aporta la
metodología Taguchi sobre el método de iteración, ya que es una metodología muy fácil de
aplicar y bastante eficiente cuando se habla de calidad. En este tipo de estudio demuestra
los beneficios que aporta el método Taguchi al momento de llevar a cabo cualquier tipo de
experimentos. Los autores concluyeron que el enfoque de Taguchi es un método idóneo
para ser utilizado en diseños con pocas variables, para más de 12 variables se vuelve
impráctico debido al número de experimentos a realizar. Este aporte se presenta como
punto de comparación para las diferentes metodologías aplicadas en el diseño de pedales
tipo FSAE.

2.1.10. Romero J. (2013)


Considerando que el pedal de freno es un componente clave en la seguridad de un
vehículo Formula SAE, esta investigación tiene como objeto la optimización de un pedal de
freno tipo FSAE. Para ello, las reglas imponen que el pedal debe soportar al menos una
carga de 2000 N. En esta investigación el problema de interés es minimizar la masa (m) del
pedal sujeto a una restricción estructural, para esto el autor considera la siguiente
metodología:

1) Definir el modelo matemático de un pedal de Freno tipo FSAE


2) Construir un modelo sustituto para predecir el valor de la masa (m) y el máximo
esfuerzo de Von Mises (Smax) provenientes de las variables de diseño y
resultados de simulaciones numéricas.
3) Aplicar un “adaptive-hybrid surrogate-based optimization approach”

El estudio fue realizado considerando un modelo numérico de 28 variables de diseño


y un aluminio 6063 T5, que fue validado con resultados experimentales mientras que el
modelo sustituto fue construido y validado usando datos de entrenamientos de 560 y 56
puntos de muestra, respectivamente.

La estrategia de optimización propuesta demuestra una eficiencia contundente


llevando el pedal a una masa menor de apenas 176 gr. reduciéndola considerablemente en
comparación con otros diseños funcionales previamente realizados.

Este artículo aporta bases teóricas que involucran la optimización del diseño de un
pedal tipo FSAE aplicando metodologías de gran utilidad para la presente investigación
como la realización de diseños de experimentos, construcción y diseño de modelos
sustitutos (Kriging) considerando un tiempo computacional razonable.

E. PROPIEDADES ESTOCASTICAS DEL ALUMINIO


2.1.11. Barroso L. (2015)
Actualmente el país no presenta un mercado donde se encuentran muchas
variedades de aluminio, sin embargo uno de los que presenta mayor desempeño es el
aluminio 6063 T5. Es por ello que es de suma importancia conocer a fondo sus propiedades
mecánicas que servirán como base para estudiar el comportamiento del pedal, ayudando
así a conocer las incertidumbres con respecto al material. El objeto de estudio de esta
investigación resulta en la determinación de un modelo estocástico de Esfuerzo-Vida para
el Aluminio 6063-T5 dado que los registros de dicho material solo tienen como base
resultados determinísticos. Ensayos a tracción y de fatiga a bajo ciclaje se llevaron a cabo
para caracterizar el material en sus propiedades mecánicas y dinámicas, permitiéndose
predecir la vida del mismo. Este estudio es de gran relevancia, debido a que aporta datos
precisos del aluminio con el que se diseñará y estudiará el pedal de freno tipo FSAE. Como
las propiedades mecánicas más importantes a la cual se tomaron de este trabajo de
investigación, destacan las del módulo de elasticidad y el Esfuerzo de fluencia. Aunado a
esto, el estudio que se realizó en esta investigación de pruebas a bajo ciclaje del
comportamiento del pedal, serán considerados para el propósito de esta investigación.

2.2. BASES TEORICAS


2.2.1. INCERTIDUMBRE
Según Haldar y Mahadehan (2000), en el mundo se presentan un sinfín de
fenómenos, de los cuales los más observados contienen cierta cantidad de incertidumbres,
es decir, que éstos no se pueden predecir con certeza. En general, las repetidas mediciones
de los fenómenos físicos nos generan una variedad de resultados, en los cuales unos se
presentan con mayor frecuencia que otros. La aparición de los fenómenos sin ningún patrón
específico es descrita como incertidumbre, aleatoriedad, y estocasticidad. De la misma
manera, la palabra estocasticidad proviene de la palabra griega stochos, que significa
incertidumbre.

Por ejemplo, si se tiene en un laboratorio varias muestras idénticas de una barra de


acero cargadas hasta que fallen, cada una de ellas podría fallar en magnitudes de cargas
distintas. La capacidad de soportar la carga de cada barra es por lo tanto una cantidad
aleatoria, conocida formalmente como una variable aleatoria. En general, todos los
parámetros de interés en el diseño y análisis ingenieril tienen cierto grado de incertidumbre
y por lo tanto pueden ser consideradas como variables aleatorias.

2.2.1.1. Factores que afectan la evaluación de la confiabilidad


Siguiendo en referencia de los mismos autores, los análisis de confiabilidad
requieren información acerca de las incertidumbres en el sistema, antes de recolectar dicho
información acerca de las incertidumbres y proceder con el análisis de confiabilidad, los
ingenieros tienen que entender la existencias de los diferentes tipos de incertidumbres
posibles en los sistemas ingenieriles, y que cada tipo de incertidumbre requiere un enfoque
diferente para la recolección y uso de los datos en un estudio de confiabilidad.

2.2.1.2. Tipos de Incertidumbre


Según el autor Agarwall (2004) existen los siguientes tipos de incertidumbre.

2.2.1.2.1. Incertidumbre Aleatoria


Las variaciones de tipos de incertidumbres también son conocidas como
incertidumbres aleatorias que describen la variación inherente del sistema físico. Ellas
pueden producirse en la forma de tolerancias de fabricación o variaciones incontrolables en
alrededores externos. Usualmente son modeladas como un fenómeno aleatorio, el cual se
caracteriza por distribuciones de probabilidad. Las distribuciones de probabilidad son
construidas usando frecuencia relativa de ocurrencia de eventos, el cual requiere grandes
cantidades de información.

Más a menudo, tal información no existe y los diseñadores usualmente realizan


suposiciones para las características (promedio, varianza, coeficiente de correlación) del
fenómeno aleatorio causando variación.

Se puede tener los siguientes casos:

 Los limites en ciertas variaciones son conocidos exactamente, pero la


función de densidad de probabilidad (PDF) o distribuciones que rigen las
variaciones no son conocidas.
 Función de densidad de probabilidad individual de variaciones en ciertos
parámetros o variables de diseño son conocidas, pero la correlación entre
ellos son desconocidas.En aplicaciones de ingeniería más comunes, aunque
es razonable representar la incertidumbre estocástica (variabilidad) asociada
con variables y parámetros de diseño por medias probabilísticas, existen
lugares donde tales representaciones son cuestionables o no adecuadas.
Hay casos donde algunas de las entradas del sistema son conocidas
existiendo en intervalos y nada más se puede conocer sobre la distribución,
media o varianza. En algunos casos la data está disponible solo como puntos
discretos obtenidos de experimentos previos. Cuando tales entradas son
parte de un sistema de ingeniería es extremadamente difícil estimar la
incertidumbre correspondiente para las salidas del sistema y usarla para
aplicaciones de diseño. Tales tipos de incertidumbre caracterizados por
información incompleta pueden ser representados usando técnicas tales
como modelos convexos de incertidumbre, métodos de intervalos, teoría de
la posibilidad, etc.

2.2.1.2.2. Incertidumbre epistémica


Es también conocida como incertidumbre subjetiva, debido a la ignorancia, falta de
conocimiento o información incompleta. En sistemas de ingeniería, la incertidumbre
epistémica puede ser ya sea paramétrica o basado en modelos. La incertidumbre
epistémica también surge en la toma de decisiones.

Herramienta e incertidumbre paramétrica


En sistemas de ingeniería, la incertidumbre epistémica es comúnmente paramétrica
o basado en modelos. La incertidumbre paramétrica es asociada con los parámetros de
incertidumbre para el cual la información disponible es escasa o inadecuada.
Incertidumbres de Formas de modelo también conocido como herramienta de incertidumbre
es asociado con modelos incorrectos del sistema debido a la falta de conocimiento de la
física del sistema. En algunas aplicaciones, los modelos (herramientas) son conservadores
o consistentemente sobre-predecibles o bajo predecible en predicciones de ciertas
características. Por ejemplo, en dinámica estructural, el uso de matriz de masa consistente
es conocido por sobreestimar consistentemente la frecuencia natural de una estructura
dada, mientras usando matriz de masas concentrada no sigue dicha tendencia.
Usualmente, el modelo de incertidumbre es más bajo para altas fidelidad de herramientas
de análisis.
El modelo de incertidumbre también resulta con la selección de diferentes modelos
matemáticos para simular diferentes condiciones. Esto surge debido a la falta de
información sobre las condiciones o las condiciones del rango del sistema podrían operar
bajo, y también debido a la falta de una técnica unificada de modelado. Por ejemplo,
empleando diferentes modelos para flujo laminar y turbulento en una aplicación típica de
mecánica de fluidos.

Incertidumbre relacionada con la toma de decisiones


La incertidumbre asociada con la toma de decisiones es también conocida como
vaga o imprecisa. En el problema de toma de decisiones él se presenta comúnmente como
un problema de optimización multi-objetiva, no es posible minimizar usualmente todos los
objetivos (o satisfacer todas las metas), debido a las restricciones y objetivos en conflicto.
En tales circunstancias, diseñadores usualmente toman las decisiones based on what
objectives to trade-off, or how to perform trade-off. Optimizaciones de diseño bajo tal
situaciones están hechas usando métodos tradicionales de ”multiobjective optimization”,
“fuzzy multiobjective optimization” y diseño basado en preferencias. Conjuntos confusos
son típicamente usados para modelos tal como problemas multi objetivos.

2.2.1.3. Distribuciones de probabilidad


Según Zapata (2010) una distribución de probabilidad es un modelo matemático que
se utiliza para representar fenómenos aleatorios estacionarios, con realizaciones
independientes y en el cual, la(s) variable(s) aleatoria(s) que sirve(n) para representar el
fenómeno aleatorio bajo estudio no aparece(n) como función del tiempo. El tiempo, puede
ser una de las variables que explican el fenómeno aleatorio bajo estudio, pero no indexa a
otras variables aleatorias. Tampoco aparece en este tipo de modelo una variable que indexe
a otras.

Una diferencia importante entre los modelos para variables continuas y los modelos
para variables discretas es que la mayoría de éstos últimos se desarrollan para fenómenos
aleatorios donde se cumplen unas condiciones específicas, por lo cual, su aplicación no
puede hacerse simplemente siguiendo el proceso de ajuste de una muestra de datos a una
distribución de probabilidad, como si es el caso, de los modelos para variables continuas.
Por esta razón, en algunas aplicaciones, la muestra de datos de una variable aleatoria
discreta se ajusta a un modelo para variable aleatoria continua.

2.2.1.3.1. Tipos de parámetros para las distribuciones de


probabilidad
Según su función, los parámetros de las funciones matemáticas que se utilizan como
modelos para distribuciones de probabilidad se clasifican en:

 Parámetro de Localización
 Parámetro de Escala
 Parámetro de Forma
 Parámetro de Desplazamiento
2.2.1.3.1.1. Parámetro de Localización

Fig. (7) Parámetro de localización de un modelo para distribución de probabilidad.


Fuente: Zapata (2010)

Como se muestra en la Fig. (7), este parámetro especifica el punto en el eje


horizontal a partir de donde comienza el rango de valores del modelo o donde se localiza
su centro de masa.

Un cambio en este parámetro desplaza la distribución hacia la derecha o la


izquierda. Este parámetro tiene las mismas unidades de medida de la variable aleatoria x.

2.2.1.3.1.2. Parámetro de Escala

Fig. (8) Parámetro de escala de un modelo para distribución de probabilidad.


Fuente: Zapata (2010)

Este parámetro determina la escala o unidades de medida de la variable aleatoria x.


Tal como se muestra en la Fig. (8), un cambio en este parámetro expande o comprime la
distribución sin cambiar su forma.
2.2.1.3.2. Distribuciones de probabilidad continuas

Fig. (9) Probability Density Function.


Fuente: Haldar y Mahadehan (2000)

Haciendo referencia a los autores Haldar y Mahadehan (2000) se desea que las
variables aleatorias sean representadas en esta tesis con letras Mayúsculas (E.g X) y la
realización de la variable sea denotada en minúscula. En la Fig. (9) se muestra una curva
llamada función de densidad de probabilidad, que en sus siglas anglosajonas PDF
(Probability Density Function) y es representada como 𝑓𝑋 (𝑥). La misma no provee la
información de la probabilidad pero si indica la naturaleza de la incertidumbre. Para calcular
la probabilidad de X teniendo una variable entre x1 y x2, el área bajo la curva de PDF entre
esos dos limites debe ser calculada. Esta se expresa de la siguiente forma:

Ec. (1)

Para calcular P(X≤x), que se denota específicamente como 𝐹𝑋 (𝑥) y se conoce como
la función de la distribución acumulativa, CDF (cumulative distribution function), o
simplemente puede ser nombrada como la función de distribución. El área debajo de PDF
se debe integrar para todos los valores posibles de X menores o iguales que x; en otras
palabas, la integración debe ser llevada a cabo teóricamente desde -∞ hasta x, y puede ser
expresada como:

Ec. (2)

La CDF da de forma directa la probabilidad de una variable aleatoria de tener un


valor menor o igual a un valor específico.

La Ec. (1) puede ser expresada también en términos de CDF de la siguiente forma:

Ec. (3)

Es obvio que la PDF es la primera derivada de la CDF y puede ser expresada de la


siguiente forma:

Ec. (4)

Ahora bien, la relación entre PDF y CDF se muestra de forma conceptual en la Fig.
(10) para una variable aleatoria continua, de la cual podemos tomar las siguientes
observaciones:

 La PDF debe ser una función positiva; puede ser cero y su rango teórico
posee los límites entre -∞ y +∞.
 La CDF debe ser 0 en -∞ y 1.0 en +∞, esto es que, FX(-∞)=0, y FX(+∞)=1.
 CDF siempre será mayor o igual a cero, esto es, FX(x)≥0.0, y es una función
no decreciente de una variable aleatoria.

Fig. (10) PDF y CDF de una Variable aleatoria continúa.
Fuente: Haldar y Mahadehan (2000)

2.2.1.3.2.1. Distribución Normal o Gaussiana


Una de las distribuciones más utilizadas en los problemas ingenieriles es la
Distribución Normal o Gaussiana. La PDF de la distribución puede ser expresada como:

1 1 𝑥 − 𝜇𝑥 2
𝑓𝑥 (𝑥) = 𝑒𝑥𝑝 [− ( ) ] , −∞ < 𝑥 < +∞ Ec. (5)
𝜎𝑥 √2𝜋 2 𝜎𝑥

En donde la media 𝜇𝑥 y la desviación estándar 𝜎𝑥 son dos parámetros de la


distribución, estos son usualmente estimados con la información disponible del sistema a
estudiar. También se conoce que CDF es la integral de PDF, que puede ser expresada
como:

𝑥
1 1 𝑥 − 𝜇𝑥 2
𝐹𝑥 (𝑥) = ∫ 𝑒𝑥𝑝 [− ( ) ] 𝑑𝑥. Ec. (6)
−∞ 𝜎𝑥 √2𝜋 2 𝜎𝑥

El uso de la distribución Normal o Gaussiana es amplio y se denota como N (µ, σ),


lo cual indica que es una variable normal aleatoria con la media y su desviación estándar
de µ y σ, respectivamente. Un ejemplo grafico se muestra más adelante de una distribución
normal de PDF y CDF con una media de 1000 y una desviación estándar de 10. Este tipo
de distribución posee muchas características útiles, una de ésta es su aplicación a cualquier
valor aleatorio desde -∞ hasta +∞, añadido a esto la distribución es simétrica con respecto
a la media, y la media, la mediana y los valores modales son idénticos y pueden ser
estimados directamente de la data. Sin embargo, una desventaja que posee este tipo de
distribución es la dificultad que se tiene al estimar la probabilidad mediante la integración
de su PDF correspondiente, para afrontar este problema se transforma la variable aleatoria
original X a una variable estándar normal teniendo 0 como media y un valor unitario para la
desviación estándar, es decir:

𝑋 − 𝜇𝑥
𝑆= Ec. (7)
𝜎𝑥
Haciendo una transformación de cambio de variable la ecuación de PDF original
queda de la siguiente forma:

1 1
𝑓𝑆 (𝑠) = 𝑒𝑥𝑝 [− 𝑠 2 ] , −∞ < 𝑠 < +∞ Ec. (8)
√2𝜋 2

Y su CDF correspondiente que expresado como:

𝑠
1 1
𝐹𝑆 (𝑠) = ∫ 𝑒𝑥𝑝 [− 𝑠 2 ] 𝑑𝑠. Ec. (9)
−∞ 𝜎𝑥 √2𝜋 2

La distribución estándar normal es denotada como N(0,1), y su CDF se expresa


como Φ(s) que es igual a Φ(s)=Fs(s).

El nombre “normal” se aplica a esta distribución ya que en las poblaciones


consideradas “normales”, las características de los individuos, por ejemplo, su estatura,
coeficiente de inteligencia, etc. se concentran alrededor del valor medio y muy pocos
individuos tienen valores muy por fuera de dicho valor. Es decir, existe muy poca

probabilidad de encontrar individuos con características que estén por fuera de ±3σ.

2.2.1.3.2.2. Variable Aleatoria LogNormal


En muchos problemas ingenieriles, una variable aleatoria no puede tener valores
negativos debido a aspectos físicos asociados al problema, para este caso, el ploteo o
modelado de la variable como Log normal es apropiado, ya que se elimina automáticamente
la posibilidad de los valores negativos. Si a los datos de una muestra se les toma el
logaritmo natural y la distribución de estos datos transformados es normal, entonces los
datos tienen distribución lognormal, de allí viene su nombre. La condición de normalidad de
los datos transformados puede deducirse del histograma, si este tiene forma de campana.
La PDF de una variable lognormal está dado como:

1 1 ln 𝑥 − 𝜆𝑥 2
𝑓𝑥 (𝑥) = 𝑒𝑥𝑝 [− ( ) ] , 0 ≤ 𝑥 < +∞ Ec. (10)
√2𝜋𝜁𝑥 𝑥 2 𝜁𝑥

En donde λx y Ϛx son dos parámetros de la distribución Lognormal. La PDF de una


distribución típica lognormal con una media de 100 y una desviación estándar de 10 es
mostrada en la siguiente Fig. (11), donde se puede apreciar que los valores PDF tanto de
las variables aleatorias normales y lognormal con la misma media y la desviación estándar
se representan gráficamente en la Fig. (12).

Fig. (11) PDF y CDF de una variable aleatoria Lognormal.


Fuente: Haldar y Mahadehan (2000)
Las variables Lognormal tienen valores entre 0 y +∞. La PDF para este tipo de
distribución es asimétrico, y por lo tanto la media, la mediana y los valores modales se
esperan que sean diferentes entre sí. Comparando las Ec. (5) y Ec. (10), se puede observar
ciertas similitudes entre las distribuciones normales y lognormal, de hecho dos parámetros
de la distribución lognormal pueden ser calculado de la información procedente los 2
parámetros de la distribución normal, la media µ y la desviación estándar σ para la misma
población. Se puede demostrar que:

1
𝜆𝑋 = 𝐸(ln 𝑥) = ln 𝜇𝑋 − 𝜁 2 𝑋 Ec. (11)
2

𝜎𝑋 2
𝜁𝑋 2 = 𝑉𝑎𝑟(ln 𝑋) = ln [1 + ( ) ] = ln(1 + 𝛿 2𝑋 ) Ec. (12)
𝜇𝑋

Fig. (12) PDF para las distribuciones Normales y LogNormal con una media de 100 y desviación
estándar de 10.
Fuente: Haldar y Mahadehan (2000)

Si la covarianza no es muy grande, por ejemplo menor de 0,30, entonces se puede


aproximar ϚX≈δX. Por otra parte, para calcular la probabilidad de un evento que se
encuentre bajo una distribución de una variable aleatoria, el procedimiento usado para la
variable de tipo normal se puede aplicar aun, exceptuando que para el caso lognormal, la
variable estándar S tiene la siguiente forma.

ln 𝑋 − 𝜆𝑋
𝑆= Ec. (13)
𝜁𝑋

2.2.1.3.2.3. Distribuciones Beta


Con respecto a la distribución beta es una distribución muy flexible y útil la cual
puede ser utilizada cuando una variable aleatoria se encuentre entre dos límites, a y b. La
distribución normal es válida cuando sus límites se encuentran entre -∞ y +∞, y la
distribución lognormal es válida entre 0 y +∞. Como muchas variables aleatorias
significativas en la ingeniería se encuentre entre dos límites dado, el uso de la distribución
beta es apropiado; su representación es representada como:

Ec. (14)

Donde q y r son paramétrica de la distribución y B(q,r) es la función beta. Los


parametros q y r pueden ser calculados de la media y la desviación estándar de la data
disponible utilizando las siguientes correlaciones:

Ec. (15)

Ec. (16)

Si los limites inferiores y superiores, la media y la varianza de una variable aleatoria


son conocidos, entonces los parámetros de las distribución beta q y r pueden ser estimados
utilizando Ec. (15) y Ec. (16)

La función beta dentro de la Ec. (14) puede ser mostrada como:

Ec. (17)
Para calcular dicha función tenemos la siguiente expresión:

Ec. (18)

En donde Γ () es la función gamma. Ahora bien si se tiene que el límite inferior a es


0 y el límite superior b es 1, la Ec. (14) toma la siguiente forma:

Ec. (19)

La Ec. (19) es conocida como la distribución estándar beta. Un gráfico de PDF para
varios valores de q y r son mostrados en la Fig. (13). Cuando q y r son iguales a 1, la
distribución beta se transforma en una distribución uniforme.

Fig. (13) PDF de una distribución beta estándar.


Fuente: Haldar y Mahadehan (2000)

2.2.1.4. Cópulas Bidimensionales


De acuerdo a los autores Escarela y Hernandez (2009) las cópulas bidimensionales
son funciones bivariadas que juntan o bien “copulan” dos funciones de distribución
univariadas para construir funciones de distribución bivariadas continuas. La cópula
representa una forma paramétrica conveniente para modelar la estructura de dependencia
en distribuciones conjuntas de variables aleatorias, en particular para parejas de variables
aleatorias. Varias cópulas con diversas formas están disponibles para representar a familias
de distribuciones bivariadas.

El uso de la cópula permite una gran flexibilidad para modelar la distribución


conjunta de una pareja aleatoria que pueda surgir de prácticamente cualquier disciplina, y
lo hace de forma sencilla ya que solo se necesita especificar la función que copula y las
marginales. Las cópulas pueden extraer la estructura de dependencia de la función de
distribución conjunta de un vector de variables aleatorias y, al mismo tiempo, permiten
separar la estructura de dependencia del comportamiento marginal. Al igual que en el caso
univariado, es posible usar transformaciones que permitan crear funciones de distribución
bivariadas discretas a partir de las distribuciones continuas; de esta forma, puede
aprovecharse la cópula cuando el objetivo es modelar parejas aleatorias discretas.

Las cópulas fueron presentadas originalmente por Sklar (1959), quien resolvió
algunos problemas formulados por M. Fréchet sobre la relación entre una función de
distribución de probabilidad multidimensional y sus marginales de menor dimensión.

En la actualidad, las cópulas se han convertido en una poderosa herramienta de


modelado multivariado en muchos campos de la investigación donde la dependencia entre
varias variables aleatorias, continuas o discretas, es de gran interés, y para las cuales la
suposición de normalidad multivariada puede ser cuestionable.

Así mismo, los autores definen en carácter estadístico las copulas de la siguiente
manera:

Una cópula bidimensional es una función de distribución bivariada de un vector


aleatorio V = (V1, V2) cuyas marginales V1 y V2 son uniformes en el intervalo I = (0, 1).

Es decir, una cópula es una función C: I2 →I que satisface las siguientes condiciones:

a. De acotamiento

lim 𝐶(𝑣1 , 𝑣2 ) = 𝑣3 − 𝑗 Ec. (20)


𝑣𝑓→1−

lim 𝐶(𝑣1 , 𝑣2 ) = 0 Ec. (21)


𝑣𝑓→0

Donde j=1,2 y (𝑣1 , 𝑣2 )𝑡 ∈ 𝐼 2 , y


b. De incremento

𝐶(𝑢2 , 𝑣2 ) − 𝐶(𝑢2 , 𝑣1 ) − 𝐶(𝑢1 , 𝑣2 ) + 𝐶(𝑢1 , 𝑣1 ) ≥ 0 Ec. (22)

Para toda 𝑢1 , 𝑢2 , 𝑣1, 𝑣2 ∈ 𝐼 tal que 𝑢1 ≤ 𝑢2 , 𝑣1 ≤ 𝑣2

La importancia de las cópulas en estadística matemática se describe en el siguiente


teorema:

Fig. (14) Teorema de Sklar.


Fuente: Escarela y Hernández (2009)

Este teorema establece que, en el contexto de parejas aleatorias continuas, es


posible construir una función de distribución bivariada en términos de dos funciones de
distribución continuas univariadas y una cópula que permite relaciones de dependencia
entre dos variables aleatorias individuales. Una demostración del teorema de Sklar puede
encontrarse en Schweizer & Sklar (1983). Las cópulas pueden emplearse para definir
distribuciones bivariadas con marginales discretas, de manera que satisfagan la ecuación
de la Fig. (15), sin embargo en contraste con el caso continúo, no hay una forma única para
expresar la distribución conjunta de dos variables aleatorias discretas como una función de
sus distribuciones marginales. Cuando las variables son discretas, la unicidad solo se
encuentra en rango F1 x rango F2.
Fig. (15) Corolario sobre teorema de Sklar.
Fuente: Escarela y Hernández (2009)

La desigualdad de las cotas Fréchet-Hoeffding indica que si F es una función de


distribución bivariada con marginales F1 y F2, entonces:

𝑀𝑎𝑥{𝐹1 (𝑦1 ) + 𝐹2 (𝑦2 ) − 1,0} ≤ 𝐹(𝑦1 , 𝑦2 ) ≤ 𝑚í𝑛{𝐹1 (𝑦1 ), 𝐹2 (𝑦2 )} Ec. (23)

Este resultado es consecuencia del teorema de Sklar. En términos de copulas, la


desigualdad puede expresarse como:

(𝑢1 , 𝑢2 ) = 𝑚á𝑥{𝑣1 + 𝑣2 − 1,0} ≤ 𝐶(𝑣1 , 𝑣2 ) ≤ 𝑚í𝑛{𝑣1 , 𝑣2 } = 𝑀(𝑣1 , 𝑣2 ) Ec. (24)

La cual se conoce como desigualdad de las cotas de Fréchet e indica que cualquier
cópula C representa un modelo de dependencia que se encuentra entre los extremos W y
M. Las funciones W y M son conocidas como las cotas inferior y superior, respectivamente;
de hecho, Fréchet (1951) demuestra que W y M son también cópulas.

2.2.1.4.1. Familia de Copulas


Si se tiene una colección de cópulas, entonces puede emplearse el Teorema de
Sklar para construir distribuciones bivariadas con marginales arbitrarias. Una cantidad
importante de familias de cópulas puede ser encontrada en la literatura.

Estas familias no son equivalentes en términos del tipo de dependencia estocástica


que ellas representan o el grado de dependencia que ellas pueden capturar. Como
resultado, un problema esencial es la elección de la familia de cópulas para construir una
distribución bivariada particular (Escarela y Hernández, 2009).

2.2.1.4.2. Copulas Arquimedianas


Las cópulas proveen una estructura general para modelar distribuciones bivariadas.
Una familia de cópulas que permite este modelado a través de una sola función univariada
es la Arquimediana. A continuación se enuncia la definición de cópula Arquimediana dada
por los autores Genest y Rivest (1993).

Axioma 8. Una copula es llamada Arquimediana si esta puede ser expresada la


forma
𝐶(𝑣1 , 𝑣2 ) = 𝑧 −1 [𝑧(𝑣1 ) + 𝑧(𝑣2 )] (𝑣1 , 𝑣2 )𝑇 ∈ (0,1)2 Ec.
(25)

Para alguna función convexa decreciente z definida en (0,1] que satisface 𝒛−𝟏 (𝟏) =
𝟎; por convención 𝒛−𝟏 (𝒗) = 𝟎 cuando 𝒗 ≥ 𝒛(𝟎).

Las condiciones dadas en la definición de cópula arquimediana son necesarias y


suficientes para que la cópula en la Ec. (25) sea una función de distribución bivariada
(Schweizer & Sklar 1983). Estas condiciones equivalen a que 1 − 𝑧 − 1(𝑣) debe ser una
función de distribución unimodal en [0,1) con moda en 0. Aquí, la función z es conocida
como el generador.

La familia de cópulas Arquimediana permite la definición de modelos generados por



la transformada de Laplace 𝑧(𝑠) = 𝐸[exp(−𝑠𝑊)] = ∫0 𝑒 −𝜃𝑡 𝑑𝐻(𝜃), correspondiente a una
variable aleatoria W, la tan citada variable frailty, que es una variable aleatoria no negativa
cuya función de distribución es H. En el contexto de variables aleatorias positivas continuas,
Oakes (1989) demostró que para la clase de funciones de distribución conjunta definidas
por la cópula en la Ec. (25) las variables aleatorias Y1 y Y2 son condicionalmente
independientes dada la variable aleatoria W, por lo que:

𝐹(𝑦1 , 𝑦2 |𝑊 = 𝑤) = 𝐹1 (𝑦1 |𝑊 = 𝑤)𝐹2 (𝑦2 |𝑊 = 𝑤). Ec. (26)

Para encontrar la función de densidad de la cópula 𝐶(𝑣1 , 𝑣2 ) definida en la ecuación


𝛿 2 𝐶(𝑣1 ,𝑣2 )
𝑐 (𝑣1 , 𝑣2 ) = 𝛿𝑣1 𝑣2
donde (𝑣1 , 𝑣2 )𝑇 ∈ (0,1)2 defínase 𝑧(𝐶) = 𝑧(𝑣1 ) + 𝑧(𝑣2 ), y derivando

respecto a 𝑣1 ,
𝜕𝐶
𝑧 ′ (𝐶) = 𝑧′(𝑣1 ) Ec. (27)
𝜕𝑣1

Derivando esta expresión respecto a 𝑣2 , se tiene que:

𝜕𝐶 𝜕𝐶 𝜕2𝐶
𝑧 ′′ (𝐶) + 𝑧 ′ (𝐶) = 0 Ec. (28)
𝜕𝑣1 𝜕𝑣2 𝜕𝑣1 𝜕𝑣2

Por tanto:

𝑧′′(𝐶)𝑧′(𝑣1 )𝑧′(𝑣2 ) Ec. (29)


𝑐(𝑣1 , 𝑣2 ) = −
[𝑧′(𝐶)]3

Dado (Y1 , Y2) un par de variables aleatorias variables aleatorias con distribución F
definida en el axioma, se puede demostrar que la τ de Kendall correspondiente tiene la
siguiente:

1
𝑧(𝑡)
𝜏 = 4∫ 𝑑𝑡 + 1 Ec. (30)
0 𝑧′(𝑡)

De esta forma, el valor de τ está relacionado en forma lineal con el área bajo la curva
𝑧(𝑡)
de 𝑧(𝑡)/𝑧 ′ (𝑡)entre 0 y 1. Note que la cota inferior de Fréchet correspondiente 𝑧 ′ (𝑡)
=𝑡−

1; cuando 𝑧(𝑡)/𝑧 ′ (𝑡) tiende a cero, se obtiene la cota superior de Fréchet. De hecho, Genest
y Rivest (1993) notan que la convergencia de una sucesión de distribuciones bivariadas
construidas con cópulas arquimedianas puede determinarse al observar la gráfica de
𝑧(𝑡)/𝑧 ′ (𝑡) de la sucesión.

La familia de cópulas Arquimediana ha recibido la atención de la comunidad


estadística debido a que su representación y otras cantidades importantes están dadas en
términos de la función 𝑧(𝑠).
2.2.2. MODELO SUSTITUTO
2.2.2.1. Diseño de Experimentos
Los métodos de muestreo surgen de la teoría del Diseño de Experimentos (DOE)
cuando los experimentos físicos comenzaban a ser dirigidos. En la actualidad, estos
métodos se utilizan, fundamentalmente, en experimentos planificados, con el objeto de
minimizar la influencia del error aleatorio asociado a los experimentos físicos (Wang y Shan,
2007).

La metodología del diseño de experimentos se basa en la experimentación. Es


conocido que si se repite un experimento, en condiciones indistinguibles, los resultados
presentan variabilidad que puede ser grande o pequeña. Si la experimentación se realiza
en un laboratorio donde la mayoría de las causas de variabilidad están muy controladas, el
error experimental será pequeño y habrá poca variación en los resultados del experimento.
Pero si se experimenta en procesos industriales, administrativos, entonces la variabilidad
es grande en la mayoría de los casos.

Así mismo, Según Montgomery (2012) afirma que un Diseño Estadístico de


Experimentos es el proceso de planear el experimento de tal forma que se recaben datos
adecuados que puedan analizarse con métodos estadísticos y que lleven a conclusiones
válidas y objetivas.

Los principales tipos de muestreo se pueden agrupar en: i) muestreo probabilístico,


el que cada muestra tiene la misma probabilidad de ser elegida, ii) muestreo intencional u
opinático, en el que la selección de los elementos y la determinación del tamaño de la
muestra no se realizan de forma objetiva, sino por intuición o en función de la experiencia,
y iii) muestreo sin norma, en el que la muestra se obtiene sin norma alguna, de cualquier
manera, considerando la muestra representativa si la población es homogénea y no se
producen sesgos de selección.

El autor, destaca que dentro de los métodos probabilísticos, están los métodos de
muestreo clásicos: factorial o factorial fraccionado, diseño central compuesto (CCD), Box-
Behnken, óptimo alfabético y diseños Plackett-Burman Estos métodos tienden a distribuir
los puntos de muestreo alrededor de los límites del espacio de diseño y dejar algunos en el
centro. Otros métodos de muestreo probabilísticos son los denominados space filling
(intentan cubrir el espacio uniformemente): matriz ortogonal, Hipercubo Latino, secuencias
de Hammersley (Kalagnanam y Diwekar, 1997), y diseños uniformes.
Para el diseño de experimentos computacionales, la selección de la muestra es
clave para obtener un modelo eficiente. Un buen método de muestreo debe satisfacer: que
sea óptimo según el modelo estadístico, que puedan utilizarse varios puntos y variables de
entrada en la muestra, y que pueda ser generado fácilmente con un tiempo computacional
razonable.

2.2.2.1.1. Muestreo Hipercubo Latino


Actualmente, uno de los métodos de muestreo más populares entre los que intentan
cubrir el espacio uniformemente (space filling) es el muestreo por hipercubo latino (Latin
Hypercube Sampling, LHS). Este método fue introducido por McKay et al. (1979),
demostrando que el LHS tiene un varianza de la media muestral menor que la de una
muestra aleatoria simple.

Un muestreo Hipercubo Latino divide el rango del parámetro en partes iguales


(estratos), en orden para obtener una completa extensión de muestreo. Las muestras son
seleccionadas aleatoriamente en cualquier estrato, no permitiendo seleccionar 2 veces
consecutivamente en el mismo estrato (Mendieta, 2001).

Este método consiste en la selección de los parámetros y variables a muestrear, la


asignación de distribuciones de probabilidad a cada una (que pueden estar basados en
estudios teóricos o mediciones experimentales), la división de cada distribución en un
numero fijado a priori de intervalos equiprobables, la generación de una muestra aleatoria
dentro de cada intervalo y para cada variable, y el apareamiento aleatorio de muestras entre
variables, de modo de obtener vectores de valores de entrada, uno por cada intervalo.

Con cada vector de valores de entrada, el modelo numérico es ejecutado una vez.
Es decir, el método requiere correr el modelo tantas veces como intervalos se hayan
supuesto en la división de las distribuciones de probabilidad, independientemente del
número de variables muestreadas. Normalmente esta técnica permite reducir en uno o más
órdenes de magnitud la cantidad de corridas necesarias para obtener una determinada
representatividad, en comparación con un modelo Monte Carlo clásico (Barón y Núñez
1999).

Fundamentos
Para generar un diseño o muestra 𝑆𝑛 = {𝑆1 , … , 𝑆𝑛 } de tamaño n y m variables
(LHS(n, m)), se genera una matriz de tamaño 𝑛𝑥𝑚, donde cada columna es una
permutación aleatoria de:
𝜋𝑗 (1), 𝜋𝑗 (2), … , 𝜋𝑗 (𝑛) ; 𝑗 = 1, … , 𝑚 Ec. (31)

Y una muestra aleatoria:

𝑗
𝑈𝑘 (𝑛, 𝑚) ; 𝑘 = 1, … , 𝑛 Ec. (32)

Dentro del intervalo de valores que pueden adoptar cada variable, por simplicidad
𝑗
[0,1]. Cada punto de la muestra (𝑆𝑘 ) contiene un valor por cada variable (𝑆𝑘 ), siendo:

𝑗
𝑗 𝜋𝑗 (𝑘) − 𝑈𝑘 Ec. (33)
𝑆𝑘 = ; 𝑘 = 1, … , 𝑛 ; 𝑗 = 1, … , 𝑚
𝑛

De esta forma, LHS garantiza que cada una de las variables de entrada está
representada en todo su rango (Sacks et al., 1989a). En la Fig. (16 a) se representa una
muestra con 𝑛 = 8y 𝑚 = 2, a partir de Ec. (31), sobre una rejilla que cuenta con 𝑛𝑚 =
(82 = 64) celdas. Como se puede observar, para cada fila y columna se tiene un único
punto.

𝑗
Otra forma más sencilla de generar 𝑆𝑘 es utilizar la Ec. (34). De esta forma, los
puntos de la muestra se encuentran en el centro de cada celda Fig. (16 b).

𝑗 𝜋𝑗 (𝑘) − 0,5
𝑆𝑘 = ; 𝑘 = 1, … , 𝑛 Ec. (34)
𝑛

Para conseguir LHS óptimo existen diferentes criterios de optimalidad mostrada en


la Fig. (17), entropy (Shewry y Wynn, 1987) integrated mean squared error (IMSE) (Sacks
et al., 1989a), y maximin (maximizar la mínima distancia entre puntos) o minimax (minimizar
la máxima distancia), (Johnson et al., 1990). Actualmente no existe un acuerdo sobre cuál
criterio es mejor.
Fig. (16) Muestra generada con LHS (n=8 ym=2): (a) puntos en cada celda; (b) puntos en la mitad de
la celda.
Fuente: Sacks et al. (1989a)

Fig. (17) Criterios de optimalidad para el diseño óptimo con LHS: (a) IMSE; (b) entropy; (c) maximin.
Fuente: Kai-Tai et al.(2006)

Las principales ventajas de utilizar el método de muestreo LHS normal son:

 Se dispone de más información dentro del espacio de diseño que con el


muestreo aleatorio simple. Esta característica es deseada en experimentos
computacionales que tratan un error sistemático en vez un error aleatorio.

 Proporciona una muestra aleatoria uniforme.

 El tamaño de la muestra es controlable.

 Se genera fácilmente y en un tiempo razonable.


Al construir el modelo real a partir de los valores de las variables, no todas las
combinaciones son posibles, lo que puede producir algún fallo durante la generación del
modelo o el análisis (e.g., mediante el método de elementos finitos). En estos casos, las
variables deberán ajustarse a un valor más adecuado, pudiendo desviarse del intervalo
definido. El LHS admite el ajuste de las variables hasta un cierto grado, siempre que el
nuevo punto esté dentro del intervalo definido para las variables.

2.2.2.2. Metamodelos
Actualmente, los modelos que se desarrollan paralelamente con la aplicación de las
técnicas CAE (Computer Aided Engineering) requieren de una enorme cantidad de tiempo,
tanto en el modelado como en el análisis. Por este motivo, muchos diseñadores se
encuentran con verdaderas dificultades a la hora de aplicar estas técnicas, sobre todo, en
las primeras fases del proceso de diseño. Una solución para estos problemas, recae en los
denominados metamodelos o modelos sustitutos. Estos modelos conllevan un menor coste
computacional, lo que permite a los diseñadores su utilización aún en las etapas iníciales
del diseño (Kleijnen y Sargent, 1997).

El diseño basado en modelos sustitutos hace referencia a la idea de construir un


modelo alternativo de rápida ejecución (sustituto) a partir de data de simulación numérica y
luego usarlo con propósitos de optimización y análisis. Para la solución de problemas de
optimización donde la evaluación de la función objetivo implica la ejecución de un simulador
de alto costo computacional, se han utilizado modelos sustitutos de rápida ejecución, que
aproximan la respuesta del simulador, junto con algoritmos de optimización.

De acuerdo con los autores Zerpa y Queipo (2004), una alternativa ante la ausencia
de un modelo físico o matemático, es construir un modelo del proceso a partir de un
conjunto finito de datos (patrones) de entrada-salida del mismo (enfoque black box). La Fig.
(18) ilustra este enfoque donde ante una entrada arbitraria se sabe qué salida se produce
pero no cómo se genera dicha salida.
Fig. (18) Diagrama de un proceso modelado con el enfoque del tipo caja negra.
Fuente: Zerpa y Queipo (2004)

El hecho de formular un modelo de esta naturaleza no significa que se ignore la rica


información sobre la relación de las variables de entrada entre sí y la de éstas con las
variables de salida.

La construcción de un modelo puede tener distintos propósitos entre los que se


cuentan:

 Predicción
 Comprender mejor un proceso
 Identificar variables significativas
 Visualizar la naturaleza de la relación entre variables de entrada y salida
 Determinar el impacto individual de las variables de entrada en la respuesta:
análisis de sensibilidad
 Optimización
 Cuantificar compromisos entre múltiples objetivos

Son múltiples los factores que intervienen en la estrategia de selección de la


estructura del modelo. Sin embargo hay tres dimensiones fundamentales que guían el
proceso de construcción según Zerpa y Queipo (2004):

i. Origen de la data:
 Data histórica (existente) sin posibilidad de generar nuevas observaciones
 Data que puede ser generada (simulada) mediante el diseño de
experimentos
ii. Tipo de Respuesta:
 Determinística
 Aleatoria
iii. Propósito del modelado:
 Estimación global: modelo adecuado para todo el dominio (robustez)
 Optimización: donde se hace énfasis en el ajuste del modelo en las zonas
subóptimas.

Para la aplicación de modelos sustitutos o metamodelos, existen alternativas tanto


paramétricas (e.g., la regresión polinómica- PR, Kriging) como no paramétricas (e.g.,
proyección de regresión de búsqueda, funciones de base radial) para la construcción de
metamodelos. Los métodos paramétricos presumen la forma de función global de la
relación entre la variable de respuesta y las variables de diseño conocidas, mientras que
los no paramétricos utilizan diferentes tipos de modelos simples locales, en diferentes
regiones de los datos para construir un modelo general.

2.2.2.2.1. Tipos de Modelos Sustitutos


2.2.2.2.1.1. Kriging
Según Bohling, G (2005) El kriging puede ser entendido como una predicción lineal
o una forma de inferencia bayesiana. Parte del principio: puntos próximos en el espacio
tienden a tener valores más parecidos que los puntos más distantes. La técnica de kriging
asume que los datos recogidos de una determinada población se encuentran
correlacionados en el espacio. Esto es, si en un vertedero de residuos tóxicos y peligrosos
la concentración de zinc en un punto p es x, será muy probable que se encuentren
resultados muy próximos a x cuanto más próximos se esté del punto p (principio de
geoestadística). Sin embargo, desde una cierta distancia de p, ciertamente no se
encontrarán valores próximos a x porque la correlación espacial puede dejar de existir.

Esta técnica calcula los pesos que se darán a cada punto de referencia usado en la
valoración. Esta técnica de interpolación se basa en la premisa de que la variación espacial
continúa con el mismo patrón. Fue desarrollada inicialmente por Danie G. Krige a partir del
análisis de regresión entre muestras y bloques de mena, las cuales fijaron la base de la
geoestadística lineal.

Fundamentos de la Técnica
Sacks et al. (1989b) propusieron un modelo Kriging para aproximar la respuesta
computacional determinista 𝒚(𝑿) como:
𝑦̂(𝑋) = 𝑓 𝑇 (𝑋)𝛽 + 𝑍(𝑋) Ec. (35)

𝑇 𝑇
Con 𝑓(𝑋) = [𝑓1 (𝑋), … , 𝑓𝑝 ] y 𝛽 = [𝛽1 , … , 𝛽𝑝 ] donde 𝑝 indica el número de funciones
básicas en el modelo de regresión, 𝑦̂(𝑋) es la función de interés desconocida, 𝑓(𝑋) es la
función conocida de 𝑋, 𝛽 es el vector de coeficientes de regresión, y 𝑍(𝑋) es una función
aleatoria (proceso estocástico) con la media cero y covarianza.

𝐶𝑜𝑣(𝑋𝑖 , 𝑋𝑗 ) = 𝜎 2 𝑅(𝑋𝑖 , 𝑋𝑗 ) ; 𝑖, 𝑗 = 1, … , 𝑛 Ec. (36)

Donde 𝑛 indica el número de experimentos (número de puntos que contiene una


muestra), 𝑅(𝑋𝑖 , 𝑋𝑗 ) es la función de correlación (correlación entre 𝑋𝑖 𝑦 𝑋𝑗 ), y 𝜎 2 es la varianza
del proceso.

Construcción del Modelo


La construcción de un modelo Kriging, como en Ec. (35), puede ser resumida como
sigue. Para un cierto diseño experimental, se genera una muestra X (e.g., mediante LHS)
con un conjunto de puntos (Kaymaz, 2005).

𝑗
𝑿 = [𝑿1 , 𝑿2 , … , 𝑿𝑛 ]𝑇 𝑥𝑖 ∈ 𝑅 𝑚 ; 𝑖 = 1, … 𝑛 ; 𝑗 = 1, … , 𝑚 Ec. (37)

𝑗
𝑿 = [𝑿1 , 𝑿2 , … , 𝑿𝑛 ]𝑇 𝑥𝑖 ∈ 𝑅 𝑚 ; 𝑖 = 1, … 𝑛 ; 𝑗 = 1, … , 𝑚 Ec. 2.20

Donde 𝑚 es el número de variables, 𝑛 es el tamaño de la muestra, y X es la matriz


de diseño de 𝑛𝑥𝑚. La respuesta de la muestra X es dada por:

𝑌 = [𝑦1 (𝑋), 𝑦2 (𝑋), … , 𝑦𝑛 (𝑋)]𝑇 Ec. (38)

Los parámetros 𝛽 desconocidos y 𝜎 2 pueden ser calculados como:

𝛽 = (𝐹 𝑇 𝑅−1 𝐹)−1 𝐹 𝑇 𝑅−1 Ec. (39)

1
𝜎2 = (𝑌 − 𝐹𝛽)𝑇 𝑅−1 (𝑌 − 𝐹𝛽) Ec. (40)
𝑛
Donde F es el vector que incluye los valores de f(x) evaluados en cada punto
experimental, y R es la matriz de correlación, la cual está compuesta de una función de
correlación evaluada para cada combinación posible de los puntos contenidos en la muestra
X.

𝑅(𝜃, 𝑋1 , 𝑋1 ) ⋯ 𝑅(𝜃, 𝑋1 , 𝑋𝑛 )
𝑅(𝜃, 𝑋𝑖 , 𝑋𝑖 ) = [ … ⋰ … ] Ec. (41)
𝑅(𝜃, 𝑋𝑛 , 𝑋1 ) … 𝑅(𝜃, 𝑋𝑛 , 𝑋𝑛 )

Antes de calcular 𝜷 y 𝜎 2 , primero hay que calcular los parámetros de la función de


correlación. El valor óptimo de denominado estimador de máxima probabilidad, es aquel
que minimiza (Welch et al., 1992).

1
(𝑛 ∙ 𝑙𝑛𝜎 2 + 𝑙𝑛|𝑹|) Ec. (42)
2

Donde|𝑹|es el determinante de R. Esto, también, es equivalente a: 𝜃 es aquel que


minimiza:

1
Ec. (43)
𝜑 = (𝜃) = |𝑹(𝜃)|𝑛 𝜎(𝜃)2

Una vez conocidos los parámetros 𝜷, 𝜎 y se puede obtener la respuesta para un


punto cualquiera x en el espacio de diseño mediante:

𝑦̂(𝑋) = 𝑓 𝑇 (𝑋)𝛽 + 𝑟 𝑇 (𝑋)𝛾 Ec. (44)

Con la columna 𝛾 definida por:

𝛾 = 𝑅 −1 (𝑌 − 𝐹𝛽) Ec. (45)

Donde 𝒓𝑻 (𝑿) es un vector que representa la correlación entre el punto x


desconocido y todos los puntos conocidos de la muestra.

𝑟 𝑇 (𝑋) = {𝑅(𝜃, 𝑋, 𝑋1 ), … , 𝑅(𝜃, 𝑋, 𝑋𝑛 )} Ec. (46)


Funciones de Regresion
𝑇
Las funciones de regresión 𝑓(𝑋) = [𝑓1 (𝑋), … , 𝑓𝑝 (𝑋)] , son normalmente polinomios
de orden 0 (constante), 1 (lineal), y 2 (cuadrático) (Lophaven et al., 2002b).

Constante (𝑝 = 1):
𝑓1 (𝑿) = 1 Ec. (47)

Lineal (𝑝 = 𝑚 + 1)
𝑓1 (𝑿) = 1, 𝑓2 (𝑿) = 𝑥1 , … , 𝑓𝑝+1 (𝑿) = 𝑥𝑚 Ec. (48)

1
Cuadrático(𝑝 = (𝑚 + 1)(𝑚 + 2))
2

𝑓1 (𝑿) = 1

𝑓2 (𝑿) = 𝑥1 , … , 𝑓𝑚+1 (𝑿) = 𝑥𝑚

𝑓𝑚+2 (𝑿) =, 𝑥12 … , 𝑓2𝑚+1 (𝑿) = 𝑥1 𝑥𝑚 Ec. (49)

𝑓2𝑚+2 (𝑿) =, 𝑥22 … , 𝑓3𝑚 (𝑿) = 𝑥2 𝑥

2
… … 𝑓𝑝 (𝑿) = 𝑥𝑚

Funciones de correlación
La parte del proceso estocástico del modelo dado para la estimación de 𝒚(𝑿) incluye
una función de correlación, la cual afecta a la suavidad del modelo (Martin et al., 2003).
Sacks etal. (1989b) utilizan, generalmente, una función de correlación cuya forma es dada
por:

𝑛 𝑛

𝑅(𝑋, 𝑋𝑗 ) = ∏ 𝑅(𝜃, 𝑋 − 𝑋𝑗 ) = ∏ 𝑅 (𝜃, 𝑑𝑗 ) Ec. (50)


𝑗=1 𝑗=1

Siendo 𝜃 los parámetros del modelo de correlación y 𝒅𝑗 la distancia entre 𝑿 y 𝑿𝑗 .


Lophaven et al. (2002) proponen hasta siete tipos de modelos de correlación. Un resumen
de estos modelos se muestra en la Fig. (19). Aunque, el modelo de correlación gaussiano
propuesto por Sacks et al. (1989) es el más frecuentemente utilizado.
Fig. (19) Funciones de correlación.
Fuente: Lophaven et al. (2002)

2.2.2.2.1.2. Regresión Polinomial (PR)


Según Montgomery (2010) la metodología de superficies de respuesta, o PR, es una
colección de técnicas matemáticas y estadísticas útiles en el modelado y el análisis de
problemas en los que una respuesta de interés recibe la influencia de diversas variables y
donde el objetivo es optimizar esta respuesta. Por ejemplo, suponga que un ingeniero
químico quiere encontrar los niveles de temperatura (𝒙𝟏 ) y presión (𝒙𝟐 ) que maximicen el
rendimiento (𝒚) de un proceso. El rendimiento del proceso es una función de los niveles de
la temperatura y la presión, por ejemplo:

y = f(x1 , x2 ) + ε Ec. (51)

Donde ε representa el ruido o error observado en la respuesta y. Si la respuesta


esperada se denota por E(y) = f(x1 , x2 ) = n, entonces a la superficie representada por:
n = f(x1 , x2 ) Ec. (52)

Se le llama superficie de respuesta.

Por lo general la superficie de respuesta se representa gráficamente como en laFig.


(20), donde n se grafica contra los niveles de 𝐱𝟏 y 𝐱𝟐 . Para ayudar a visualizar la forma de
una superficie de respuesta, con frecuencia se grafican los contornos de la superficie de
respuesta. En la gráfica de contorno se trazan las líneas de respuesta constante en el plano
𝐱𝟏 y 𝐱𝟐 . Cada contorno corresponde a una altura particular de la superficie de respuesta.
También se ha visto antes la utilidad de las gráficas de contorno.

Fig. (20) Gráfica de contorno de una superficie de respuesta.


Fuente: Montgomery (2010)

En la mayoría de los problemas PR, la forma de la relación entre la respuesta y las


variables independientes es desconocida. Por lo tanto, el primer paso de la PR es encontrar
una aproximación adecuada de la verdadera relación funcional entre 𝐲 y el conjunto de
variables independientes. Por lo general se emplea un polinomio de orden inferior en alguna
región de las variables independientes. Si la respuesta está bien modelada por una función
lineal de las variables independientes, entonces la función de aproximación es el modelo
de primer orden

y = β0 + β1 x1 + β2 x2 + ⋯ + βk xk + ε Ec. (53)

Si hay curvatura en el sistema, entonces debe usarse un polinomio de orden


superior, tal como el modelo de segundo orden
k k

y = β0 + ∑ βi xi + ∑ βii xi2 + ∑ ∑ βij xi xj + ε Ec. (54)


i=1 i=1 i<𝑗

En casi todos los problemas PR se usa uno de estos modelos, o ambos. Desde
luego, es probable que un modelo polinomial sea una aproximación razonable de la
verdadera relación funcional en el espacio completo de las variables independientes, pero
para una región relativamente pequeña suelen funcionar bastante bien.

El método de mínimos cuadrados se usa para estimar los parámetros de los


polinomios de aproximación. Después se realiza el análisis de la superficie de respuesta
utilizando la superficie ajustada. Si la superficie ajustada es una aproximación adecuada de
la verdadera función de la respuesta, entonces el análisis de la superficie ajustada será un
equivalente aproximado del análisis del sistema real. Los parámetros del modelo pueden
estimarse de manera más eficiente cuando se emplean los diseños experimentales
apropiados para recolectar datos.

Fig. (21) El carácter secuencial de la PR.


Fuente: Montgomery (2010)

La PR es un procedimiento secuencial. Muchas veces cuando se está en un punto


de la superficie de respuesta que esta apartado del óptimo, como en el caso de las
condiciones de operación actuales de la Fig. (21), el sistema presenta una curvatura
moderada y el modelo de primer orden será apropiado. El objetivo en este caso es llevar el
experimentador de manera rápida y eficiente por la trayectoria del mejoramiento hasta la
vecindad general del óptimo. Una vez que se ha encontrado la región del óptimo, puede
emplearse un modelo más elaborado, como el de segundo orden, y llevarse a cabo un
análisis para localizar el óptimo. En la Fig. (21) se puede ver que el análisis de una superficie
de respuesta puede considerarse como “el ascenso a una colina”, donde la cima de esta
representa el punto de la respuesta máxima. Si el verdadero óptimo es un punto de
respuesta mínima, entonces la situación puede considerarse como “el descenso a un valle”.

El objetivo último de la PR es determinar las condiciones de operación óptimas del


sistema o determinar una región del espacio de los factores en la que se satisfagan los
requerimientos de operación.

2.2.2.2.1.3. Función de Base Radial (RBF)


Según Queipo y Col., (2005) La Función de Base Radial ha sido desarrollada para
la interpolación de data multivariable dispersa. El método usas combinaciones lineales de
NRBF funciones radialmente simétricas, hi(x), basadas en distancia Euclidiana o métrica,
para aproximar la función de respuesta tal como:

𝑁𝑅𝐵𝐹

𝑓𝑝 (𝑥) = ∑ 𝑤𝑖 ℎ𝑖 (𝑥) + 𝜖𝑖 Ec. (55)

𝑖=1

Donde 𝑤 representa el coeficiente de las combinaciones lineales, hi(x) la función de


base radial y 𝜖𝑖 errores independientes con varianza 𝜎 2 .

La flexibilidad del modelo, que es su habilidad para encajar en muchas funciones


diferentes, deriva de la libertad de seleccionar diferentes valores de los pesos. La Función
de Base Radial es una clase especial de funciones con su principal característica de
disminuir su respuesta (o incrementar) monotonicamente con una distancia desde el punto
central. El centro, la escala de distancia, y su forma precisa de la RBF son parámetros del
modelo.

Una Función de Base Radial típica es la Gaussiana que en el caso de una entrada
escalar es expresada como:

(𝑥 − 𝑐)2 Ec. (56)


ℎ𝑖 (𝑥) = exp(− )
𝛿2
Los parámetros son su centro 𝒄 y su radio 𝛿. La respuesta de la RBF Gaussiana
decrece de forma monótona con la distancia desde el centro, dando una respuesta
significante solo en el centro de la sección.

Dado un grupo de Ns de pares de entrada/salida (data de muestra) un modelo de


RBF puede ser expresada en forma matriz como:

𝑓 = 𝐻𝑤 Ec. (57)

Donde 𝑯 es una matriz dada por:

ℎ1 (𝑥 (1) ) ℎ2 (𝑥 (1) ) ⋯ ℎ𝑁𝑅𝐵𝐹 (𝑥 (1) )

𝐻= ℎ1 (𝑥 2 ) ℎ2 (𝑥 (2) ) ⋯ ℎ𝑁𝑅𝐵𝐹 (𝑥 (2) ) Ec. (58)


⋮ ⋮ ⋱ ⋮
(𝑁 ) (𝑁 ) (𝑁 )
[ℎ1 (𝑥 𝑠 ) ℎ2 (𝑥 𝑠 ) … ℎ𝑁𝑅𝐵𝐹 (𝑥 𝑠 )]

Similarmente al método de Regresión Polinomial (PR), resolviendo la Ec. (57) el


peso óptimo (en el sentido de mínimos cuadrados) puede ser encontrado para ser:

ŵ = 𝐴−1 𝐻𝑇 𝑓 Ec. (59)

Donde 𝐴−1 es una matriz dada por:

𝐴−1 = (𝐻 𝑇 𝐻)−1 Ec. (60)

La estimación de la varianza de error puede ser mostrado por:

𝑓 𝑇 𝑃2 𝑓
𝜎2 = Ec. (61)
𝑡𝑟(𝑃)

Donde 𝑷 es una matriz proyección

𝑃 = 𝐼 − 𝐻𝐴−1 𝐻 𝑇 Ec. (62)

El modelo RBF estima para un nuevo grupo de valores de entrada:


ḟ(𝑥) = ℎ𝑇 ŵ Ec. (63)

Donde, 𝒉 es un vector columna con las evaluaciones de RBF:

ℎ1 (𝑥)
ℎ2 (𝑥) Ec. (64)
ℎ=

{ℎ𝑁𝑅𝐵𝐹 (𝑥)}

Por otro lado, la predicción de la varianza es el modelo estimado de varianza ḟ(𝑥)


más el error de varianza que es dado por:

(𝑓𝑝 (𝑥)) = 𝑉(ℎ𝑇 ŵ) + 𝑉(𝜀)


Ec. (65)
𝑇 (𝐻 𝑇 −1
𝑓 𝑇 𝑃𝑓
= (ℎ 𝐻) ℎ + 1)
𝑁𝑠 − 𝑁𝑅𝐵𝐹

La idea básica de la Función de Base Radial puede ser generalizada por considerar
las funciones de pérdida alternativa y funciones base, en un esquema conocido como
“Kernel-Based Regression”. Se puede mostrar independiente de la forma de la función
pérdida L, la solución del problema variacional tiene la forma:

𝑁𝑠

𝑓̂(𝑥) = ∑ ∝𝑖 𝐾(𝑥, 𝑥 (𝑖) ) Ec. (66)


𝑖=1

Donde K es una (simétrica) función Kernel que determina las propiedades de


suavidad del esquema de estimación. La Fig. (22) muestra las funciones Kernel de
esquemas seleccionados de estimación con los parámetros Kernel siendo estimado por
criterios de selección de modelos. Si la función pérdida L es cuadrática, los coeficientes
desconocidos en la Ec. (66) puede ser encontrados resolviendo el siguiente sistema lineal:

(𝑁𝑠 𝜆𝐼 + 𝐾)𝛼 = 𝑓 Ec. (67)

Donde 𝑰 es la matriz identidad, K una matriz cuadrada con elementos 𝐾𝑖,𝑗 =


𝐾(𝑥 (𝑖) , 𝑥 (𝑖) ), y 𝜆 es un parámetro de regularización. El sistema lineal es bien planteado
desde (𝑁𝑠 𝜆𝐼 + 𝐾) es estrictamente positiva y bien condicionada para largos valores de 𝑁𝑠 𝜆.
Si la función pérdida L es no-cuadrática, la solución del problema variacional conserva la
forma de la Ec. (66) pero el coeficiente αi es encontrado resolviendo un problema de
programación cuadrática en donde es conocido como “support vector regression”. Estudios
comparativos han mostrado que dependiendo del problema bajo consideración, un
esquema de modelado particular (e.g. Regresión Polinomial, Kriging, RBF) puede superar
los otros y en general, no es conocido a priori el que debe ser seleccionado.

Fig. (22) Ejemplos de funciones Kernel y esquemas de estimación relacionados.


Fuente: Queipo y Col. (2005)

Considerando alternativa plausible, los modelos sustitutos pueden encajar


razonablemente los datos disponibles, y el costo de la construcción de metamodelos es
pequeña en comparación con el coste de las simulaciones, utilizando múltiples
metamodelos puede ofrecer ventajas en comparación con el uso de un solo modelo
sustituto.

2.2.2.3. Modelo de validación de Metamodelos


Estimaciones de error de generalización evalúa la calidad de los sustitutos para
predicción y puede ser usado para la selección del modelo entre modelos alternativos y
establecer si ellos están listos para usarse en estudios de optimización y análisis
(validación).

2.2.2.3.1. Muestra Dividida (Split Sample – SS)


En este esquema los datos de la muestra son divididos en conjuntos de
entrenamiento y conjuntos de prueba. El primero se utiliza para la construcción del sustituto
mientras que el segundo, si se selecciona adecuadamente, permite calcular una estimación
no sesgada del error de generalización. Sus principales desventajas son que la estimación
de error de generalización puede exhibir una alta varianza (que puede depender en gran
medida de lo que apunta a terminar en el conjunto de entrenamiento y conjunto de prueba)
y que limita la cantidad de datos disponibles para la construcción de los sustitutos.

2.2.2.3.2. Validación cruzada (Cross Validation - CV)


Es una mejora en el esquema de muestra dividida (SS) que permite el uso de la
mayoría, si no todos los datos disponibles para la construcción de los metamodelos. En
general, los datos son divididos en subconjuntos de k (k veces validación cruzada) de
aproximadamente igual tamaño. Un modelo sustituto es construido k veces, cada vez
dejando fuera uno de los subconjuntos de entrenamiento, y utilizando el subconjunto
omitido para calcular la medida de error de intereses. El error de generalización de
estimación se calcula utilizando las medidas de error k obtenidas (por ejemplo, promedio).
Si k es igual al tamaño de la muestra, este enfoque se denomina “Leave one out cross
validation” (conocido también como PRENSA (Press) en la terminología de regresión
polinómica). La Ec. (68) representa un “Leave one out cross calculation” cuando se describe
el error de generalización por el error cuadrático medio (GMSE).

𝑘
1 (−1) 2
𝐺𝑀𝑆𝐸 = ∑(𝑓𝑖 − 𝑓̂𝑖 ) Ec. (68)
𝑘
𝑖=1

(−1)
Donde 𝑓̂𝑖 representa la predicción a 𝑥 (𝑖) usando el sustituto construido usando
todos los puntos de muestra excepto 𝑥 (𝑖) 𝑓𝑖 . Expresiones analíticas están disponibles para
que casos de los GMSE sin llegar a realizar la construcción de los sustitutos repetidas veces
tanto para el polinomio regresión y Kriging.

La ventaja de validación cruzada es que proporciona una estimación casi imparcial


de la generalización de error y la varianza correspondiente se reduce (cuando es
comparada con Split Sample) teniendo en cuenta que cada punto llega a ser en una prueba
de conjunto, y en un conjunto de entrenamiento k – 1 veces (independientemente de cómo
se divide la data) la varianza de la estimación aunque todavía puede ser inaceptablemente
alto en particular para los pequeños conjuntos de datos. La desventaja es que requiere la
construcción k modelos sustitutos; esto es aliviado por la creciente disponibilidad de
herramientas de modelos sustitutos. Una versión modificada del enfoque CV llamada GCV
(Generalized Cross Validation), que es invariante bajo transformaciones ortogonales de los
datos (a diferencia de CV).

Si el enfoque de regularización Tikhonov para la regresión es adoptado, el


parámetro de regularización λ puede ser identificado usando uno o más de los siguientes
enfoques alternativos: CV-validación cruzada (estimación Leave-One-Out), GCV (versión
suavizada de CV), o la curva de L (explicado a continuación).

Mientras CV y GCV pueden calcularse de manera muy eficiente, que pueden


conducir a valores muy pequeños de λ, incluso para muestras grandes (por ejemplo,
función plana de GCV). La curva L se afirma que es más robusta y tienen las mismas
buenas propiedades de GCV. LA curva L es una representación de la norma residual
(primer término) versus la norma ∫‖𝐷𝑚 𝑓̂‖𝐻 de la solución para diferentes valores de
parámetros de regularización y muestra el compromiso en la minimización de estas dos
cantidades.

2.2.2.3.3. Bootstrapping
Según Queipo y Col (2005) este enfoque ha sido demostrado que funciona mejor
que la validación cruzada en muchos casos. En su forma más simple, en lugar de dividir los
datos en subconjuntos, sub-muestras de datos son consideradas. Cada sub-muestra
aleatoria es una muestra con reemplazo de la muestra completa, es decir, trata los datos
establecidos como una población de la que las muestras pueden ser dibujadas. Existen
diferentes variantes de este enfoque que puede ser utilizado no sólo para la identificación
del modelo, sino también para la identificación de los intervalos de confianza para los
resultados del modelo sustituto. Esto puede venir, aunque a expensas de considerar varias
decenas o incluso cientos de sub-muestras. Por ejemplo, en el caso de regresión
polinómica (dado un modelo) los parámetros de regresión pueden estimarse para cada una
de las sub-muestras y una distribución de probabilidad (y luego intervalos de confianza)
para que los parámetros puedan ser identificados. Una vez que se calculan parámetros de
las distribuciones, los intervalos de confianza de las respuestas del modelo también pueden
ser obtenido (por ejemplo, la media). Este modelo de Bootstrapping ha demostrado ser
eficaz en el contexto de la modelización de redes neuronales.
2.2.3. ANALISIS DE SENSIBILIDAD (SOBOL’)
El método de Sobol’ es un modelo global e independiente dentro de los métodos de
análisis de sensibilidad que se basa en la descomposición de la varianza. Puede manejar
funciones y modelos no lineales y no monotonicas.

El modelo es representado por una función como:

𝑌 = 𝑓(𝑿) = 𝑓(𝑋1 , … , 𝑋𝑝 ) Ec. (69)

Donde Y es el modelo de salida (o función objetivo) y X = (𝑋1 , … , 𝑋𝑝 ) es el conjunto


de parámetros. Sobol sugirió descomponer la función 𝑓 en sumandos de dimensionalidad
creciente:

𝑝 𝑝 𝑝

𝑓(𝑋1 , … , 𝑋𝑝 ) = 𝑓𝑜 + ∑ 𝑓𝑖 (𝑋𝑖 ) + ∑ ∑ 𝑓𝑖𝑗 (𝑋𝑖 , 𝑋𝑗 ) + ⋯ + 𝑓1,…,𝑝 (𝑋1 , … , 𝑋𝑝 ) Ec. (70)


𝑖=1 𝑖=1 𝑗=𝑖+1

Si los factores de entrada son independientes y cada término en esta ecuación es


seleccionado con cero average y es cuadrado integrable, entonces 𝑓𝑜 es una constante,
igual al valor esperado de la salida y los sumandos son mutuamente ortogonales.
Adicionalmente, esta descomposición es única.

La varianza incondicional total puede ser definida como:

𝑉(𝑌) = ∫ 𝑓 2 (𝑿)𝑑𝑿 − 𝑓𝑜 2 Ec. (71)


𝑄𝑝

Con 𝑄 𝑝 representando la unidad hiperespacio p-dimensional (Ej. Rangos de


parámetros son escalados entre 0 y 1). La varianzas parciales, dichas son componentes de
descomposición de varianza total, son calculados desde cada término en la Ec. (70) como:

1 1
𝑉𝑖1,…, 𝑖𝑠 = ∫ … ∫ 𝑓𝑖 21…𝑖 (𝑋𝑖 1 , … , 𝑋𝑖𝑠 )𝑑𝑋𝑖 1 … 𝑑𝑋𝑖 𝑠 Ec. (72)
𝑠
0 0
Donde 1 ≤ 𝑖1 ≤ ⋯ ≤ 𝑖𝑠 ≤ 𝑝 y s=1,…,p. Con la suposición que los parámetros son
mutuamente ortogonales, este es el resultado en la Ec. (73) por la descomposición de la
varianza.

𝑝 𝑝−1 𝑝

𝑉(𝑌) = ∑ 𝑉𝑖 + ∑ ∑ 𝑉𝑖𝑗 + ⋯ + 𝑉1 , … , 𝑝 Ec. (73)

𝑖=1 𝑖=1 𝑗=𝑖+1

De esta manera, las contribuciones de varianza al total de la varianza de


salida de los parámetros individuales e interacciones de parámetros pueden ser
determinados. Estas contribuciones son caracterizadas por la razón de la varianza
parcial de la varianza total, el análisis de sensibilidad Sobol’ indica:

𝑉𝑖
Primer orden SI 𝑆𝑖 = Ec. (74)
𝑉
𝑉𝑖𝑗
Segundo orden SI 𝑆𝑖𝑗 = Ec. (75)
𝑉

Total SI 𝑆𝑇𝑖 = 𝑆𝑖 + ∑𝑗≠𝑖 𝑆𝑖𝑗 + ⋯ Ec. (76)

El índice de primer orden, 𝑆𝑖 es una medida para la contribución de varianza del


parámetro individual 𝑋𝑖 de la varianza total del modelo. La varianza parcial 𝑉𝑖 en Ec. (74) es
dada por la varianza de la esperanza condicional 𝑉(𝑌) = 𝐸[𝑉(𝑌|𝑋𝑖 )] + 𝑉[𝐸(𝑌|𝑋𝑖 )]. El
impacto sobre el modelo de varianza de salida de la interacción entre parámetros 𝑋𝑖 y 𝑋𝑗 es
dado por 𝑆𝑖𝑗 y 𝑆𝑇𝑖 es el resultado del principal efecto de 𝑋𝑖 y todas sus interacciones con el
otro parámetro (hasta el 𝑝𝑡ℎ orden).

El cálculo de 𝑆𝑇𝑖 puede ser usado en la varianza 𝑉~𝑖 que resulta de la variación de
todos los parámetros, excepto 𝑋𝑖

𝑉~𝑖 Ec. (77)


𝑆𝑇𝑖 = 1 −
𝑉

Para los modelos aditivos y bajo la suposición de factores de entrada


ortogonales, 𝑆𝑇𝑖 y 𝑆𝑖 son iguales y la suma de todos 𝑆𝑖 (y por lo tanto todos 𝑆𝑇𝑖 ) es 1. Para
interacciones de modelos no aditivos existe: 𝑆𝑇𝑖 es mayor que 𝑆𝑖 y la suma de todos 𝑆𝑖 es
menor que 1. Por otra parte, la suma de todos 𝑆𝑇𝑖 es mayor que 1. Mediante el análisis de
la diferencia entre 𝑆𝑇𝑖 y 𝑆𝑖 , una puede determinar el impacto de las interacciones entre el
parámetro 𝑋𝑖 y los otros parámetros.

Para calcular las varianzas para poder obtener las medidas de sensibilidad, Sobol’
propuso un atajo en los cálculos, basados en la suposición de sumandos mutuamente
ortogonales en la descomposición. El atajo es alcanzado transformando el doble-lazo de la
integral de la Ec. (72) en una integral del producto de 𝑓 (𝑋𝑗 , … , 𝑋𝑗 𝑋 , … , 𝑋𝑖 𝑠 ) y
1 𝑘−𝑠′ 𝑖 1

𝑓 (𝑋 ′𝑗 1 , … , 𝑋 ′𝑗 𝑘−𝑠′ 𝑋𝑖 1 , … , 𝑋𝑖 𝑠 ) (Nossent y col., 2011).

2.2.4. ANALISIS DE CONFIABILIDAD


2.2.4.1. Conceptos Fundamentales
Según Haldar y Mahadeban (2000), el primer paso para la evaluación de la
confiabilidad o probabilidad de falla de una estructura está en decidir los criterios de
rendimientos específicos y los parámetros pertinentes de carga y resistencia, llamados
variables básicas Xi, y las relaciones funcionales entre ellas correspondientes a cada criterio
de rendimiento. Matemáticamente, esta relación o también llamada función de rendimiento
puede ser descrita de la siguiente forma:

𝑍 = 𝑔(𝑋1 , 𝑋2 , … … , 𝑋𝑛 ) Ec. (78)

La Superficie de Falla o el estado límite de interés puede definirse entonces como


Z=0. Este es el límite entre las regiones seguras e inseguras en el espacio de los
parámetros de diseño, también representa un estado más allá en donde una estructura no
puede cumplir más la función por la que fue diseñada, es decir cuando una estructura o una
parte de ella excede un estado limite especifico, la estructura ya no sería capaz que realizar
su función de diseño. Por lo tanto podemos clasificar el estado límite en dos grupos: ultimo
y límite de servicio. El estado limite ultimo está relacionado al colapso de toda o de una
parte de un estructura, como lo puede ser la rupturas, corrosión, fatiga, deterioro,
agrietamiento excesivo o prematuro, o deformaciones plásticas permanentes según
Madsen (). La ocurrencia de estos tipos de comportamientos estructurales debe ser muy
baja ya que estos pueden causar pérdidas humanas y daños económicos significantes. El
estado límite de servicio se encuentra asociado a la interrupción del uso normal de una
estructura, tal como deflexiones excesivas, vibración, daño local etc, aun cuando no se
presenten eventos catastróficos en la presencia de estos eventos, la estructura no puede
ser utilizada debido a los largos desplazamientos o vibraciones. La función de estado límite,
también llamada función de rendimiento, se define dependiendo de los modos de falla de
la estructura, y es una función de las variables aleatorias que gobiernan el comportamiento
estructural como:

𝐺(𝑥) = 𝑅(𝑥) − 𝑆(𝑥) Ec. (79)

En su forma normalizada,

𝑅(𝑥)
𝐺(𝑥) − 1 Ec. (80)
𝑆(𝑥)

Donde x denota el vector de las variables aleatorias básicas, R es la resistencia de


la estructura y S es la carga de la estructura.

Asumiendo que R y S son dos variables básicas aleatorias, la superficie de falla y


las regiones seguras e inseguras son mostradas en la siguiente figura. La ecuación del
estado límite juega un rol importante en el desarrollo de los métodos análisis de
confiabilidad estructural, en donde un estado limite puede ser una función explícita o
implícita de las variables básicas aleatorias, teniendo una forma simple o complicada. Los
métodos de análisis de fiabilidad se han ido desarrollando correspondiendo a los diferentes
tipos y complejidades de los estados límites.

Fig. (23) Función del estado limite.


Fuente: Haldar y Mahadeban (2000)

Utilizando la Ec. (78), se encuentra que la falla ocurre cuando Z<0, por lo tanto la
probabilidad de falla, pf, viene dada por la siguiente integral.
𝑝𝑓 = ∫ … ∫ 𝑓𝑥 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) 𝑑𝑥1 𝑑𝑥2 … 𝑑𝑛 Ec. (81)
𝑔( )<0

Su forma simplificada seria:

𝑃𝑓 = 𝑃[𝐺(𝑥) < 0] Ec. (82)

En donde 𝑓𝑥 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) es la función de densidad de probabilidad conjunta de las


variables aleatorias básicas 𝑋1 , 𝑋2 , … … , 𝑋𝑛 y la integración es realizada sobre la región de
falla, que es, 𝑔( ) < 0. Si las variables aleatorias son estadísticamente independientes, la
función de densidad de probabilidad conjunta puede ser reemplazada por el producto de
las funciones de densidad de probabilidad individuales en la integral.

El cálculo de la ecuación de 𝑝𝑓 descrita anteriormente es llamado aproximación


completa distributiva y puede considerarse como la ecuación fundamental en el análisis de
fiabilidad. En general, la función de densidad de probabilidad conjunta de las variables
aleatorias es prácticamente imposible de obtener, aun cuando la información se encuentra
disponible, evaluar la integral múltiple es realmente difícil. Por lo tanto, un método para
superar esta dificultad es utilizar aproximaciones analíticas de esta integral que son más
simples para calcular, los ingenieros normalmente trabajando con el primero y el segundo
momentos de las variables aleatorias.

El valor de la media y la desviación estándar del estado límite, 𝜇𝐺 y 𝜎𝐺 se puede


obtener como:

𝜇𝐺 = 𝜇𝑅 − 𝜇𝑆 Ec. (83)

𝜎𝐺 = √𝜎𝑅 2 +𝜎𝑆 2 − 2𝜌𝑅𝑆 𝜎𝑅 𝜎𝑆 Ec. (84)

Donde 𝜇𝑅 y 𝜇𝑆 son los valores de la media y 𝜎𝑅 y 𝜎𝑆 son las variaciones estándar de


la resistencia y la carga, 𝜌𝑅𝑆 es el factor de correlación entre R y S; si no hay alguna
correlacion entre R y S, el termino 2𝜌𝑅𝑆 𝜎𝑅 𝜎𝑆 es nulo.
Fig. (24) Función de densidad de probabilidad del estado límite, G.
Fuente: Kusano (2013)

En la figura superior se muestra la función del estado limite G. Asumiendo un caso


en donde R y S poseen una distribución normal y sin correlación, la función de densidad de
probabilidad del estado limite puede expresarse como

1 1 𝐺 − 𝜇𝐺 2 Ec. (85)
𝑓𝐺 (𝐺) = exp [− ( ) ]
𝜎𝐺 √2𝜋 2 𝜎𝐺

La probabilidad de falla, que esta representada como el área sombreada de la figura


anterior, puede obtener integrando la PDF como:

0
𝑃𝑓 = ∫ 𝑓𝐺 (𝐺) 𝑑𝐺
−∞
Ec. (86)
0
1 1 𝐺 − 𝜇𝐺 2
=∫ exp [− ( ) ] 𝑑𝐺
−∞ 𝜎𝐺 √2𝜋 2 𝜎𝐺

𝐺−𝜇𝐺
Haciendo un cambio de variable como: 𝑢 = 𝜎𝐺
𝜇
− 𝐺
𝜎𝐺 1 1
𝑃𝑓 = ∫ exp [− 𝑢2 ] 𝑑𝑢
−∞ √2𝜋 2
𝜇
− 𝐺 Ec. (87)
𝜎𝐺
=∫ 𝜑(𝑢)𝑑𝑢
−∞
𝜇𝐺
= Φ(−
𝜎𝐺

Donde 𝜑 y Φ son la PDF y la función de distribución acumuldada (CDF) de la variable


𝜇𝐺
aleatoria normal estándar. El valor, es llamado el índice de fiabilidad, 𝛽.
𝜎𝐺

𝜇𝐺
𝛽= Ec. (88)
𝜎𝐺

El índice de fiabilidad representa una medida relativa de fiabilidad o la confianza en


la capacidad de una estructura para llevar a cabo su función de manera satisfactoria según
Streletzki (1947). La probabilidad de falla puede ser expresada en términos del índice de
fiabilidad como

𝑃𝑓 = Φ(−𝛽) Ec. (89)

La figura presentada anteriormente muestra la representación del índice de fiabilidad


para una función del estado límite, el mismo indica la distancia desde el valor de la media
del estado límite, 𝜇𝐺 hasta la superficie de falla, G=0 expresado en unidades de desviación
estándar. Un alto valor de un índice de fiabilidad implicada una larga distancia desde el
valor de la media de la función del estado límite hasta la superficie de falla, que conlleva a
una pequeña probabilidad de falla.

2.2.4.2. Métodos para confiabilidad


Según Kusano (2013) el principal objetivo de la confiabilidad estructural es predecir
el rendimiento de una estructura en particular incluyendo la existencia de la incertidumbre
en los parámetros mediante el cálculo de la probabilidad de fallo correspondiente. Existen
diferentes métodos para calcular la confiabilidad, junto con los métodos de momentos y
simulación que son los que se emplean comúnmente. Los métodos de momento tienen
ventaja por encima de los métodos de simulaciones por su eficiencia computacional,
especialmente cuando la probabilidad de falla es muy pequeña. La mayor desventaja de
estos métodos de momentos es que la evaluación de los gradientes de la función de estado
límite con respecto a cada variable aleatoria puede ser complicado y costoso. Por otro lado,
los métodos de muestreos tienen una ventaja sobre los métodos de momento por su simple
implementación, sin embargo, el costo computacional sigue siendo la llave para la
aplicación en sistemas estructurales complejos.

Los métodos de momentos pueden ser agrupados en dos tipos, first-order reliability
methods (FORM) y second-order reliability methods (SORM), como método de muestreo
tenemos la simulación de Monte Carlo (MCS).

Con respecto a los métodos de momentos, el estado límite de interés puede ser una
función lineal o no lineal de las variables básicas, en donde el FORM puede ser utilizado
para evaluar la integral cuando la función del estado límite es una función linear de variables
normales no correlacionadas o puede ser también utilizado cuando la función no lineal del
estado límite está representada por una aproximación de primer orden (lineal) con variables
normales equivalentes. SORM estima la probabilidad de falla mediante la aproximación de
la función del estado límite no lineal (incluyendo una función del estado limite lineal con
variables correlacionadas no normales) utilizando una representación de segundo orden.

2.2.4.2.1. First-Order Second Moment Method (FOSM)


El método de primer orden Segundo momento de la traducción de sus siglas
anglosajonas, el FOSM, también llamado Mean Value First Order Second Moment
(MVFOSM), utiliza el primer orden de la expansión de la serie de Taylor para linealizar la
función del estado límite. La formulación original fue propuesta por Cornell en 1969, quien
originalmente desarrolló el método para dos variables aleatorias. Como su nombre lo
sugiere el segundo momento utiliza el primer (media) y el segundo momento (desviación
estándar) de los parámetros ignorando momentos de grados mayores. La función del
estado límite es presentada por el primer orden de la serie de Taylor en el valor de la media.
Si todas las variables aleatorias en el vector x son estadísticamente independientes, la
función del estado límite en el valor de la media puede escribirse como:

𝐺̃ (𝑥) ≈ 𝐺(𝜇𝑥 ) + ∇𝐺(𝜇𝑥 )𝑡 (𝑥 − 𝜇𝑥 ) Ec. (90)

𝛿𝐺(𝜇𝑥 ) 𝛿𝐺(𝜇𝑥 ) 𝛿𝐺(𝜇𝑥 ) 𝑇


Donde 𝜇𝑥 = {𝜇𝑥1 , 𝜇𝑥2 , … 𝜇𝑥𝑛 }𝑇 y +∇𝐺(𝜇𝑥 ) = { , ,…, }
𝛿𝑥1 𝛿𝑥2 𝛿𝑥𝑛

Entonces el valor de la media de la aproximación de la función del estado límite es:


𝜇𝐺̃ ≈ 𝐸[𝐺(𝜇𝑥 )] = 𝐺(𝜇𝑥 ) Ec. (91)

Donde es el E es el valor esperado. La variancia de la aproximación de la función


del estado límite es:

𝜎𝐺̃ 2 = 𝑉𝑎𝑟 [𝐺̃ (𝑥)] ≈ 𝑉𝑎𝑟[∇𝐺(𝜇𝑥 )𝑡 (𝑥 − 𝜇𝑥 )] Ec. (92)

Desde que 𝑉𝑎𝑟[∇𝐺(𝜇𝑥 )𝑡 (𝑥 − 𝜇𝑥 )] = [∇𝐺(𝜇𝑥 )𝑡 ]2 𝑉𝑎𝑟(𝑥), tenemos que

𝑛 2
𝛿𝐺(𝜇𝑥 ) Ec. (93)
𝜎𝐺̅ = √∑ ( ) 𝜎𝑥𝑖 2
𝛿𝑥𝑖
𝑖=1

El índice de fiabilidad es calculado como:

𝜇𝐺̅
𝛽= Ec. (94)
𝜎𝐺̅

La Ec. (94) es la misma que la Ec. (88) cuando la función del estado límite es linear.
Aunque el método es simple y computacionalmente eficiente, tiene muchas desventajas, ya
que linealiza la función del estado limite aplicando el primer orden de la serie de Taylor y
trunca los términos altos, donde largos errores pueden aparecer cuando se trabajan como
funciones del estado limite altamente no-lineales. Además el índice de fiabilidad no es
invariante con las ecuaciones del estado límite matemáticamente equivalentes, por ejemplo,
ecuaciones normalizadas y ecuaciones no normalizadas puede dar diferentes índices de
fiabilidad.

2.2.4.2.2. First Order Reliability Method (FORM)


Citando a Kusano (2013) tenemos que de sus siglas anglosajonas el método de
confiabilidad de primer orden, el FORM fue propuesto por Hasofer y Lind en 1974 para
contrarrestar las desventajas del FOSM. Desde entonces este método se ha hecho famoso
y se ha convertido de uno de los métodos más importantes para evaluar la fiabilidad
estructural. La mejora más importante de este método con respecto a FOSM es expandir la
función del estado límite al punto más probable de falla o Most Probable Point of Failure
(MPP) en lugar de la media. Este método consiste en realizar una aplicación lineal de las
variables aleatorias básicas a un conjunto de variables independientes y normalizadas, ui.
Las variables básicas aleatorias deben ser independientes entre sí y estar normalmente
distribuidas. El FORM es generalmente preciso para propósitos prácticos cuando la función
del estado límite no tiene una curvatura significante según Bjerager y se comporta
computacionalmente eficiente cuando se trabaja especialmente con probabilidades de falla
pequeñas comparado con los métodos de muestreo.

El primer paso para utilizar el FORM es transformar las variables aleatorias básicas
en variables que tengan una forma normalizada para que mismas tengan un valor de cero
en la media y un valor unitario en la desviación estándar. Esta transformación es común en
estadística la cual es llamada la transformación de Rosenblatt que es descrita como:

𝑥𝑖 − 𝜇𝑥𝑖
𝑢𝑖 = Ec. (95)
𝜎𝑥𝑖

La superficie de falla de función del estado limite puede ser reescrita en el espacio-
u como G(u)=0, entonces el índice de fiabilidad 𝛽 puede ser simplemente interpretado como
la distancia más corta desde el origen del espacio-u hasta la superficie de falla. Este
problema es interpretado como un problema de optimización.

𝛽 = 𝑚𝑖𝑛√∑ 𝑢𝑖 2 𝑖 = 1…𝑛
Ec. (96)
𝑖=1

Sujeto a que 𝐺(𝒖) = 0

Fig. (25) Transformacion del espacio-x (izquierda) al espacio-u (derecha).


Fuente: Kusano (2013)
El punto en la función de rendimiento, u*, el cual indica la distancia minima desde el
origen a la superficie de falla mostrado en la figura anterior es llamado el punto más
probable de falla, Most Probable Point of failure (MPP). El mismo representa la más
probable combinación de las variables aleatorias en caso de un fallo estructural.

Para resolver este problema de optimización, existen diferentes algoritmos como


feasible directions, penalti methods, dual methods, Lagrange multiplier methods entre otros.
Un ejemplo para resolver este problema sería el siguiente utilizando el método multplicador
de Lagrange, se transforma la Ec. (90) en esta forma

Minimizar 𝐿(𝑢𝑖 , 𝜆) = √∑𝑛𝑖=1 𝑢𝑖 2 + 𝜆𝐺(𝒖)


Ec. (97)
𝑖 = 1…𝑛

Las condiciones para un punto estacionario son:

𝛿𝐿 𝑢𝑖 𝛿𝐺
= + 𝜆 = 0 Ec. (98)
𝛿𝑢𝑖 √∑𝑛𝑖=1 𝑢𝑖 2 𝛿𝑢𝑖
𝛿𝐿
= 𝐺(𝒖) = 0 Ec. (99)
𝛿𝑢𝑖

G(u) en u* puede ser expresado por la expansión de Taylor de primer orden:

𝑛
∗)
𝛿𝐺(𝒖∗ )
𝐺(𝒖) ≈ 𝐺(𝒖 +∑ (𝑢𝑖 − 𝑢𝑖 ∗ ) Ec. (100)
𝛿𝑢𝑖
𝑖=1

De la Ec. (98) obtenemos:

𝛿𝐺(𝒖∗ ) 𝑢𝑖
=− Ec. (101)
𝛿𝑢𝑖 𝜆√∑𝑛𝑖=1 𝑢𝑖 2

Y 𝜆 se puede deducir como:

1
𝜆=
∗ 2 Ec. (102)
√∑𝑛𝑖=1 (𝛿𝐺(𝒖 ))
𝛿𝑢𝑖
Combinando la Ec. (99) y Ec. (100)

𝑛 𝑛
∗)
𝛿𝐺(𝒖∗ ) 𝛿𝐺(𝒖∗ ) ∗
𝐺(𝒖 +∑ . 𝑢𝑖 − ∑ . 𝑢𝑖 = 0 Ec. (103)
𝛿𝑢𝑖 𝛿𝑢𝑖
𝑖=1 𝑖=1

Y colocando la Ec. (101) en la Ec. (103)

𝑛
∗) √∑𝑛𝑖=1 𝑢𝑖 2 𝛿𝐺(𝒖∗ ) ∗
𝐺(𝒖 − −∑ . 𝑢𝑖 = 0 Ec. (104)
𝜆 𝛿𝑢𝑖
𝑖=1

Entonces podemos expresar 𝛽 como:

𝛿𝐺(𝒖∗ ) ∗
𝑛 𝐺(𝒖∗ ) − ∑𝑛𝑖=1 . 𝑢𝑖
𝛿𝑢𝑖
𝛽 = √∑ 𝑢𝑖 2 = Ec. (105)
∗ 2
√∑𝑛𝑖=1 (𝛿𝐺(𝒖 ))
𝑖=1
𝛿𝑢𝑖

La expresión de 𝛽 coincide con la fórmula de distancia que va desde el origen del


espacio-u hasta al hiperplano que aproxima la función de rendimiento.

Los cosenos directores del vector normal unitario en el espacio-u se escribe como:

𝛿𝐺(𝒖∗ )
𝛿𝑢𝑖
𝛼(𝒖) = − Ec. (106)
∗ 2
√∑𝑛𝑖=1 (𝛿𝐺(𝒖 ))
𝛿𝑢𝑖

Los cosenos directores en el espacio-x original es:

𝛿𝐺(𝒙∗ )
𝜎𝑥𝑖
𝛿𝑥𝑖
𝛼(𝒙) = − Ec. (107)
∗ 2
√∑𝑛𝑖=1 (𝛿𝐺(𝒙 ) 𝜎𝑥 )
𝛿𝑥𝑖 𝑖

El punto más probable de falla, MPP, en el espacio-u puede ser escrita también
como:
𝒖∗ = 𝛼(𝒖)𝛽 Ec. (108)

Y en el espacio-x

𝑥𝑖 ∗ = 𝜇𝑥𝑖 + 𝛼𝜎𝑥𝑖 𝛽
Ec. (109)
(i=1,2, …n)

Desde que u* no es conocida de antemano, un proceso iterativo debe emplearse


para obtener 𝛽. Los principales pasos para calcular 𝛽 mediante el uso de FORM se
describen a continuación en los siguientes pasos:

1. Definir la función del estado limite


2. Transformar las variables aleatorias al espacio-u y utilizar el punto de la
media, 𝑢𝑥 , por ejemplo u=0 como valor inicial del MPP.
3. Con el fin de aproximar la función de estado límite al punto de diseño xk (el
vector x en la iteración k), el gradiente de la función del estado límite con
respecto a cada variable aleatoria necesita ser evaluado en ese punto.
4. Calcular el índice de fiabilidad 𝛽, utilizando la Ec. (105) y sus cosenos
directores con la Ec. (106).
5. El nuevo punto del MPP es calculado en el espacio-u usando la Ec. (108) y
en el espacio-x con la Ec. (109)
6. Se repiten los pasos de 3 al 5 hasta que el valor de 𝛽 converja.
Fig. (26) Diagrama de flujo FORM.
Fuente: Kusano (2013)

2.2.4.2.3. Second-Order Reliability Methods (SORM)


En SORM, la función de desempeño es aproximada por las series de Taylor de
segundo orden. El punto más probable (MPP) es obtenido como:

1
𝑔𝑄 (𝑼) = 𝑔(𝒖 ∗) + ∇𝑔𝑇 (𝑼 − 𝒖 ∗) + (𝑼 − 𝒖 ∗)𝑇 𝑯(𝑼 − 𝒖 ∗) Ec. (110)
2

Donde 𝑯 es el Hessiano evaluado en el MPP. El vector gradiente ∇ en MPP y el


vector desde MPP al origen son paralelos como:

𝒖∗ ∇𝑔
= = 𝜶 Ec. (111)
𝛽 ‖∇𝑔‖
Usando la Ec. (111), la aproximación de segundo orden puede ser reescrita como:

𝑔𝑄 (𝑼) 𝛽2 𝑯 𝑯 1 𝑯
= (−𝛽 + 𝛼 𝑇 𝛼) − (−𝛼 𝑇 + 𝛽𝛼 𝑇 ) 𝑼 + 𝑼𝑇 𝑼 Ec. (112)
‖∇𝑔‖ 2 ‖∇𝑔‖ ‖∇𝑔‖ 2 ‖∇𝑔‖

La Ec. (112) puede ser transformada más allá hasta el espacio-V estándar normal
rotado usando una transformación ortogonal u = Rv donde 𝑅 es una matriz rotación
ortogonal N x N cuya Na columna es 𝜶. 𝑅 puede ser obtenida usando la ortogonalización
Gram-Schmidt tal que 𝑅 es escrito como 𝑅 = [𝑅1 |∝] donde ∝𝑇 𝑅1 = 0. Entonces, MPP en
espacio-V puede ser expresado como 𝑣 ∗= {0, … ,0, 𝛽}𝑇 , y la Ec. (112) puede ser reescrita
como:

𝑔̃𝑄 (𝑽) 𝛽2 𝑯 𝑯
= (−𝛽 + 𝛼 𝑇 𝛼) − (−𝑉𝑁 + 𝛽𝛼 𝑇 𝑹𝑽) + 𝑽𝑻 𝑨𝑽 Ec. (113)
‖∇𝑔‖ 2 ‖∇𝑔‖ ‖∇𝑔‖

Donde la matriz A es particionada como:

𝑹𝑻 𝑯𝑹 ̃
𝑨 𝐴1𝑁 Ec. (114)
𝑨= =[ ]
2‖∇𝑔‖ 𝐴𝑁1 𝐴𝑁𝑁

Entonces, la Ec. (113) es escrita como:

𝑔̃𝑄 (𝑽) ̃𝑻 𝑨 𝛽2 𝑯 𝑯
= 𝑉𝑁 − 𝛽 + 𝑽 ̃𝑽̃+ 𝛼 𝛼 − 𝛽𝛼 𝑇 ̃ + 𝐴𝑁𝑁 𝑉𝑁 2
𝑹𝑽 + 2𝑉𝑁 𝑨𝑁1 𝑽 Ec. (115)
‖∇𝑔‖ 2 ‖∇𝑔‖ ‖∇𝑔‖

̃ = {𝑉1 , 𝑉𝟐 , … , 𝑉𝑁−1 }𝑇 .
Donde, 𝑽

Debido a que los métodos convencionales SORM son generalmente basados en


una aproximación parabólica para calcular analíticamente la probabilidad de fallo, la Ec.
(115) se puede simplificar más a través de la aproximación parabólica al pasar por alto
̃ y 𝑉𝑁 como
todos los términos cruzados entre 𝑽

𝑔̃𝑄 (𝑽) ̃𝑻 𝑨
= 𝑉𝑁 − 𝛽 + 𝑽 ̃𝑽̃ Ec. (116)
‖∇𝑔‖
Para obtener la probabilidad de fallo de la Ec. (116), Honhenbicher y Rackwitz
propusieron la formula como:

1

𝜙(𝛽) 2 Ec. (117)
𝑃𝑓 𝑆𝑂𝑅𝑀 ≅ 𝜙(−𝛽) ‖𝐼𝑁−1 − 2 𝐴̃‖
𝜙(−𝛽)

Donde 𝐼𝑁−1 significa una matriz identidad (N-1) x (N-1).

𝜙(𝛽)
Usando la aproximación asintótica de 𝜙(−𝛽)
, la probabilidad de fallo en la Ec. (117)

es simplificada más como:

1
− Ec. (118)
𝑃𝑓 𝑆𝑂𝑅𝑀 ≅ 𝜙(−𝛽)‖𝐼𝑁−1 − 2𝛽𝐴̃‖ 2

Lo que le da el mismo valor con la Ec. (117) cuando 𝛽 → ∞

Bajo la suposición que el punto del MPP es precisamente buscado y ningún otro
punto existente del MPP, los errores debido a las aproximaciones son categorizados en
métodos convencionales SORM como se muestran a continuación:

i. Error debido al aproximar cuadráticamente la función de desempeño al MPP.


ii. Error inducido por la aproximación parabólica de la función cuadrática.
iii. Error debido al cálculo de la probabilidad de fallo después de realizar dos
previas aproximaciones (Lee, 2014).

En otras palabras, según el autor Song (2013), la probabilidad de fallo puede ser
calculada usando este método, el cual usa una aproximación cuadrática de la función de
desempeño en el espacio-U y la transformación rotacional desde el espacio-U normal
estándar hasta el espacio-V normal estándar rotado.
Fig. (27) MPP (Most Probable Point) y el índice de confiabilidad β en el espacio-U.
Fuente: Song H. (2013)

2.2.4.2.4. Simulación de Monte Carlo


La simulación Monte Carlo se ha vuelto una técnica que ha ayudado a los ingenieros
a evaluar los riesgos o la confiabilidad de sistemas ingenieriles avanzados. Muchos autores
citan que el nombre de “Monte Carlo” proviene del principio de “suerte” o “azar” del
procedimiento, similar al de los juegos de azar que hicieron famosa a la ciudad del mismo
nombre.

El experimento de generar números aleatorios de cualquier distribución de


probabilidad o proceso estocástico para evaluar en forma numérica, indirecta o artificial un
modelo matemático que permite estimar el comportamiento de un sistema o proceso que
involucra variables estocásticas se denomina Simulación de Monte Carlo.

La simulación de Monte Carlo posee seis elementos esenciales según Haldar


(2000):

1. Definir el problema en término de todas las variables aleatorias


2. Cuantificar todas las características probabilísticas de todas las variables
aleatorias en termino de sus PDF o PMF y los parámetros correspondientes
3. Generación de los valores para las variables aleatorias
4. Experimentacion numérica, es decir, evaluar el problema determinístico para
cada conjunto de realizaciones de todas las variables aleatorias.
5. Extraer la información probabilística que se generaron de las “N” pasadas.
6. Determinar la precisión y eficiencia de la simulación.
7. Todas las variables aleatorias deben ser consideradas sin correlación entre sí.

Ya considerando todas las variables aleatorias independientes, la simulación de


Monte Carlos arroja muestras de las variables aleatorias acordes a su función de densidad
probabilísticas y luego las agregas a un modelo de criterio para chequear si este criterio
está correcto. La estimación para la probabilidad de falla puede ser expresada como:

𝑁𝑓 Ec. (119)
𝑃𝑓 =
𝑁

En donde N es el número total de los ciclos de simulación y Nf es el número de


ciclos de simulacion cuando ocurre la falla. Un ciclo de simulación es definido como la
solución determinística para cada realización. Según Liam y Kim (2006)La precisión del
MCS depende en gran parte del número de ciclos de simulaciones. Su aceptación como un
método para simular la probabilidad de falla depende principalmente de su eficiencia y
precisión, en general, la estimación de la precisión depende de la verdadera probabilidad
de falla y del número de simulaciones. En un intervalo de confianza de un 95%, el porcentaje
de error entre la probabilidad de falla real y la estimada puede calcularse de la siguiente
forma:

𝜀% = √(1 − 𝑃𝑓 𝑇 )/(𝑁𝑥𝑃𝑓 𝑇 ) 𝑥 200% Ec. (120)

En donde 𝑃𝑓 𝑇 es la probabilidad de falla real.

2.2.5. ALGORITMOS DE OPTIMIZACION


En esta sección se describirán los métodos más comunes de optimización: DIRECT
y basado en gradiente, y las estrategias de optimización basada en metamodelos.
2.2.5.1. DIRECT
DIRECT es un método determinista de optimización global. El algoritmo fue
diseñado principalmente para superar algunos de los problemas encontrados en la
Optimización Lipschitziana (Finkel, 2005; Finkel y Kelley, 2004; Perttunen, 1993).

Comenzamos por discutir los métodos de optimización Lipschtziana, y donde se


encuentran estos problemas.

Optimización de Lipschitz
Recordemos la definición de la continuidad Lipschitz en ℝ’.

Definición 1: Sea 𝑀 ⊆ ℝ y 𝑓: 𝑀 → ℝ′. La función 𝑓 es llamada Lipschitz continua en


𝑀 con constante de Lipschitz 𝛼 si

|𝑓(𝑥) − 𝑓(𝑥 ′ )| ≤ 𝛼|𝑥 − 𝑥 ′ |∀𝑥, 𝑥 ′ ∈ 𝑀 Ec. (121)

Si la función 𝑓 Lipschitz es continua con constante α, entonces podemos utilizar esta


información para la construcción de un algoritmo iterativo para buscar el mínimo de 𝑓. El
algoritmo de Shubert es una de las aplicaciones más directas de esta idea (MATLAB
Documentation, 7 edition). Por el momento, supongamos que 𝑀 = [𝑎, 𝑏] ⊂ ℝ′ . De Ec. (121)
es fácil ver que 𝑓 debe satisfacer las dos desigualdades para cualquier 𝑥 ∈ 𝑀.

𝑓(𝑥) ≥ 𝑓(𝑎) − 𝛼(𝑥 − 𝑎)


Ec. (122)
𝑓(𝑥) ≥ 𝑓(𝑏) − 𝛼(𝑥 − 𝑏)

Las líneas que corresponden a estas dos desigualdades forman una forma de V por
debajo de 𝑓, como muestra la Fig. (28). El punto de intersección de las dos líneas es fácil
de calcular, y proporciona la estimación del primer mínimo de 𝑓. El algoritmo sigue
realizando la misma operación en las regiones [𝑎, 𝑥1 ] y [𝑥1, 𝑏] Fig. (29 a), siguiente divide al
lado con el menor valor de la función Fig. (29 b).

Existen varios problemas con la utilización de este tipo de algoritmo. Dado que la
idea de los extremos no se traduce tan bien para grandes dimensiones, el algoritmo no tiene
una interfaz intuitiva generalizada para 𝑁 > 1. En segundo lugar, la constante de Lipschitz
con frecuencia no se puede determinar o estimar de una forma razonable. Muchas
simulaciones con aplicaciones industriales pueden incluso no ser constante Lipschitz
continua a través de sus dominios. Incluso si la constante de Lipschitz se puede estimar,
una mala elección puede llevar a malos resultados.

Fig. (28) Estimación del primer límite de la función.


Fuente: Fuertes (2011)

Si el presupuesto o límite (de la constante de Lipschitz) es demasiado bajo, el


resultado no puede tener un mínimo de la función, y si la elección es demasiado grande, la
convergencia del algoritmo será lenta.

La aparición del algoritmo DIRECT fue motivada por estas dos principales
desventajas de la optimización Lipschitziana. DIRECT hace muestras directas en los puntos
medios de los espacios de búsqueda, eliminando así cualquier confusión de las
dimensiones superiores. DIRECT no requiere ningún conocimiento de la constante Lipschitz
para la función objetivo. En su lugar, utiliza todos los valores posibles para determinar si
una región del dominio debe ser dividida en sub-regiones durante la iteración actual
(Perttunen, 1993).
Fig. (29) Muestra el proceso durante un par de iteraciones.
Fuente: Fuertes (2011)

Inicialización a DIRECT
DIRECT comienza la optimización mediante la transformación del dominio del
problema en la unidad hipercubo. Es decir:

Ω = {𝑥 ∈ ℝ𝑛 : 0 ≤ 𝑥𝑖 ≤ 1} Ec. (123)
El algoritmo funciona en este espacio normalizado, y hace referencia al espacio
original sólo cuando hacemos referencia (llamadas) a la función. El centro de este espacio
es 𝑐1 , y comenzamos hallando 𝑓(𝑐1 ) .

Nuestro siguiente paso es dividir este hipercubo. Hacemos esto mediante la


evaluación de la función en el punto 𝑐 ± 𝛿𝑒𝑖 , 𝑖 = 1, … , 𝑛 donde 𝛿 es un tercio del lado de
mayor longitud del hipercubo, y 𝑒𝑖 es el vector unitario 𝑖𝑡ℎ (i.e., un vector común en la
posición 𝑖 y ceros en las demás posiciones).

El algoritmo DIRECT opta por dejar los mejores valores de la función en el espacio
más grande; por lo tanto, define:
𝑤𝑖 = 𝑚𝑖𝑛(𝑓(𝑐1 + 𝛿𝑒1 ), 𝑓(𝑐1 − 𝛿𝑒𝑖 )), 1 ≤ 𝑖 ≤ 𝑁 Ec. (124)

La dimensión con el menor 𝑤𝑖 se divide en tres partes, de modo que 𝑐 ± 𝛿𝑒𝑖 son los
centros del nuevo hiperrectángulo. Este patrón se repite para todas las dimensiones centro
hiperrectángulo, eligiendo la nueva dimensión mediante la determinación de 𝑤𝑖
inmediatamente inferior. La Fig. (30) muestra este proceso realizado en la función GP
(problema Goldstein Price).

Fig. (30) Espacio del dominio de la función GP después de la inicialización.


Fuente: Fuertes (2011)

Después, el algoritmo comienza su ciclo de identificar los hiperrectángulos


potencialmente óptimos, dividiendo estos rectángulos adecuadamente, y calcula 𝑓 en los
centros de los nuevos hiperrectángulos generados.

Hiperrectángulos potencialmente óptimos.


En esta sección, se describe lo que el método DIRECT utiliza para determinar qué
son los rectángulos potencialmente óptimos, y cuáles deben ser divididos en esta iteración.

DIRECT realiza búsquedas a nivel local y global dividiendo todos los


hiperrectángulos que cumplen los criterios de la siguiente definición.

Definición 2: Sea 𝜀 constante positiva y 𝑓𝑚𝑖𝑛 sea el mejor valor de la función. Un


hiperrectángulo 𝑗 se dice que es potencialmente óptimo si existe alguna 𝑘 > 0 tal que:
𝑓(𝑐𝑗 ) − 𝑘𝑑𝑗 ≤ 𝑓(𝑐𝑖 ) − 𝑘𝑑𝑖 , ∀𝑖,
Ec. (125)
𝑓(𝑐𝑗 ) − 𝑘𝑑𝑗 ≤ 𝑓𝑚𝑖𝑛 − 𝜀|𝑓𝑚𝑖𝑛 |

En esta definición 𝑐𝑗 es el centro del hiperrectángulo 𝑗, y 𝑑𝑗 es una medida de este


hiperrectángulo. Jones (el creador del algoritmo) optó por utilizar la distancia desde 𝑐𝑗 a sus
vértices como medida (Finkel, 2005).

El parámetro 𝜀 se utiliza para que 𝑓(𝑐𝑗 ) sea superior a nuestra mejor solución actual
por una cantidad no trivial. Los datos experimentales han demostrado que la condición de
1 𝑥 10−2 ≤ 𝜀 ≤ 1 𝑥 10−7 tiene un insignificante efecto en los cálculos. Un buen valor de 𝜀 es
1 𝑥 10−4. Este parámetro es uno de los argumentos opcionales que controla el proceso de
optimización o también llamado factor Jones.

Observaciones de la Definición 2:

 Si el hiperrectángulo 𝑖 es potencialmente óptimo, entonces𝑓(𝑐𝑗 ) ≤ 𝑓(𝑐𝑖 ) para todos


los hiperrectángulos que son del mismo tamaño que i (i.e., 𝑑𝑖 = 𝑑𝑗 ).

 Si 𝑑𝑖 ≥ 𝑑𝑗 para todos los k hiperrectángulos, y 𝑓(𝑐𝑗 ) ≤ 𝑓(𝑐𝑖 ) para todos los


hiperrectángulos tales que 𝑑𝑖 = 𝑑𝑗 , entonces el hiperrectángulo 𝑖 es potencialmente
óptimo.

 Si 𝑑𝑖 ≥ 𝑑𝑗 para todos los 𝑘 hiperrectángulos, e 𝑖 es potencialmente óptimo, entonces


𝑓(𝑐𝑖 ) = 𝑓𝑚𝑖𝑛 .

Para el ejemplo que nos ocupa, sólo un rectángulo es potencialmente óptimo en la


primera iteración. La región sombreada de la Figura 2.20a lo identifica. En general, puede
haber más de un rectángulo potencialmente óptimo encontrado durante una iteración. Una
vez que estos hiperrectángulos potencialmente óptimos se han identificado, se completa la
iteración dividiéndolos (Finkel, 2005).

División de hiperrectángulos potencialmente óptimos

Una vez que un híper-rectángulo ha sido identificado como potencialmente óptimo,


DIRECT divide este hiperrectángulo en pequeños hiperrectángulos. Las divisiones están
restringidas a hacerlo solamente a lo largo del lado de mayor dimensión del hiperrectángulo.
Esta restricción asegura que los rectángulos se reducirán en cada una de sus dimensiones.
Si el hiperrectángulo es un hipercubo, las divisiones se llevará a cabo a lo largo de
todas las partes, como fue el caso de la etapa inicial (inicialización al DIRECT), comienza
la división a lo largo de un lado elegido al azar, puesto que ambos lados tiene la misma
dimensión y después lo hace con el rectángulo interior tomando como referencia el lado de
mayor dimensión.

La jerarquía para dividir un rectángulo potencialmente óptimo 𝑖 se determina


mediante la evaluación de la función en el punto 𝑐𝑖 ± 𝛿𝑖 𝑒𝑗 , donde 𝑒𝑗 es el vector unitario 𝑗, y
𝛿𝑖 es un tercio de la longitud del lado máximo de hiperrectángulo 𝑖. La variable 𝑗 toma en
todas las dimensiones la longitud máxima para el hiperrectángulo.

Como fue el caso en la fase de inicialización, se define (2.40):

𝑤𝑖 = 𝑚𝑖𝑛{𝑓(𝑐𝑖 + 𝛿𝑖 𝑒𝑗 ), 𝑓(𝑐𝑖 − 𝛿𝑖 𝑒𝑗 ), 𝑗 ∈ 𝐼} (2.42)

En la definición anterior, 𝐼 es el conjunto de todas las dimensiones de la longitud


máxima de hiperrectángulo 𝑖. Nuestra primera división se hace en la dimensión con la menor
𝑤𝑖 . DIRECT divide el hiperrectángulo en 3 hiperrectángulos a lo largo de la dimensión 𝑗, de
modo que 𝑐𝑖 + 𝛿𝑖 𝑒𝑗 y 𝑐𝑖 − 𝛿𝑖 𝑒𝑗 son los centros de los nuevos hiperrectángulos, y son más
pequeños. Este proceso se realiza de nuevo en la dimensión de los más pequeños 𝑤𝑖 en
el nuevo hiperrectángulo que tiene centro en 𝑐𝑖 , y se repite en todas las dimensiones en 𝐼
(Finkel, 2005).

La Fig. (31) muestra varias iteraciones del algoritmo DIRECT. Cada fila representa
una nueva iteración. La transición de la primera columna a la segunda representa el proceso
de identificación del hiperrectángulo potencialmente óptimo. Los rectángulos sombreados
en la columna 2 son hiperrectángulos potencialmente óptimos identificados por DIRECT.
La tercera columna muestra el dominio después de que estos rectángulos potencialmente
óptimos se han dividido.

La Fig. (32) muestra el dominio de la función de GP después de terminado el


algoritmo DIRECT. La parada se produce cuando DIRECT llega al 0.01% del valor del
mínimo global (valor de la tolerancia de parada, por defecto 0.01 (options.tol). DIRECT
utiliza 191 evaluaciones (cálculos) de la función.
Fig. (31) Ejemplo de varias iteraciones del DIRECT.
Fuente: Fuertes (2011)

Fig. (32) Espacio del dominio de la función GP después de 191 iteraciones para llegar al mínimo.
Fuente: Fuertes (2011)

2.2.5.2. Método de optimización basada en gradientes


La mayoría de los algoritmos basados en gradiente resuelven el problema de
optimización de una forma iterativa según la expresión:

𝑿𝑘+1 = 𝑿𝑘 + 𝛼𝑘 𝒅𝑘 Ec. (126)


Es decir, que el vector de variables de diseño (punto de diseño) para la iteración 𝑘 +
1 se obtiene a partir del punto de diseño anterior (𝑿𝑘 ). La actualización viene dada por el
producto 𝛼𝑘 𝒅𝑘 . En este producto, 𝒅𝑘 es una dirección de búsqueda en el espacio 𝑛-
dimensional de las variables de diseño y 𝛼𝑘 es la longitud del movimiento en esa dirección.

Así pues, la actualización consta de dos partes:

 determinación de la dirección de búsqueda 𝒅𝑘 , y

 cálculo de la longitud 𝛼𝑘 del movimiento.

Conceptualmente el proceso iterativo es el siguiente: si el diseño actual es un diseño


válido, la dirección de búsqueda reduce el valor de la función objetivo sin violar las
restricciones. Si el diseño actual no es válido (viola alguna restricción), la dirección de
búsqueda se dirigirá hacia la zona válida, aún a costa de aumentar la función objetivo.

En el caso más general, el problema de optimización es un problema de minimizar


una función objetivo sometido a restricciones.

El efecto de las restricciones es reducir el espacio de diseño válido pudiendo ocurrir


que el diseño óptimo sin restricciones (Fig. (33)) quede fuera de dicho espacio.

Un segundo efecto de las restricciones es que pueden hacer aparecer varios


mínimos relativos (incluso en un problema caracterizado por una función objetivo
unimodal) como se muestra en la Fig. (33).

Para resolver el problema con restricciones hay dos estrategias diferentes:

 Utilizar un método de resolución sin restricciones, al que se añaden indirectamente


las condiciones que implican las restricciones.
 Utilizar métodos que abordan el problema completo.

Los primeros se denominan genéricamente métodos indirectos. La forma más


extendida de incluir las restricciones en un método que no las considera consiste en
modificar la función objetivo de forma que incluya el efecto de las restricciones. Esta idea
da lugar a los llamados métodos de penalización. Para estos métodos la expresión de la
función objetivo queda convertida en:

𝑓𝑝 (𝑿, 𝑟) = 𝑓(𝑿) + 𝑟 ∑ 𝐺𝑖 (𝑔𝑖 ) Ec. (127)


𝑖=1
Dónde,

𝑓𝑝 (𝑿, 𝑟): la función objetivo penalizada.

𝑓(𝑿): la función objetivo original.

𝑟: el peso de la penalización.

𝐺𝑖 (𝑔𝑖 ): la función de penalización.

𝑚: el número de restricciones.

La elección de las funciones 𝐺𝑖 da lugar a diferentes métodos de penalización entre


los que se pueden distinguir dos variantes:

 Métodos de penalización interior (o de barrera).


 Métodos de penalización exterior.

La diferencia entre ambos estriba en que en los primeros se llega a la solución a


través de soluciones intermedias válidas, mientras que en los segundos se llega desde
soluciones intermedias no válidas. La ventaja de los primeros es que cualquier solución
intermedia es buena (aunque no la mejor) mientras que en los segundos sólo es buena la
última. A cambio, los primeros necesitan un punto de partida válido.

Fig. (33) Efecto de las restricciones sobre el mínimo. Mínimos relativos.


Fuente: Díaz (2010)
El segundo tipo de métodos son los denominados métodos directos. El más
representativo de los métodos directos es el denominado método de direcciones posibles.
La estrategia de este método es básicamente una modificación del descenso rápido
(Steepest Descent). Se trata de encontrar una dirección de descenso, para lo cual se utiliza
la dirección del gradiente. Es decir, que la dirección d debe cumplir:

𝒅𝑇 ∇𝑓 ≤ 0 Ec. (128)

Pero, en este caso, además se debe cumplir que la dirección no lleve


inmediatamente fuera de la región válida, es decir:

𝒅𝑇 ∇𝑔𝑗 = 0; 𝑗 = 1,2, … , 𝑚 Ec. (129)

Siendo 𝑚 el número de restricciones activas.

Una vez determinada la dirección de búsqueda se debe aplicar un método de


búsqueda unidimensional para encontrar la longitud de avance. Debe hacerse notar que,
según la longitud calculada, puede hacerse activa o violada alguna restricción, por lo que
hay que añadir un control para que esto no ocurra.

Programación cuadrática sucesiva


La programación cuadrática sucesiva (Sequential Quadratic Programming, SQP) es
un método directo de optimización basada en gradiente con restricciones. En esencia, el
método consiste en reducir el problema a un subproblema cuadrático para cada iteración
del proceso de búsqueda del óptimo.

La idea básica de la SQP fue desarrollada por Wilson (1963). Han (1977) desarrolló
un algoritmo que fue implementado por Powell (1978) con algunas modificaciones.
Independientemente, Pshenichny (1970) publicó otro algoritmo SQP en el que incluyó una
estrategia de conjunto activo de restricciones.

En la actualidad los métodos SQP tienen una gran aceptación debido a dos
características de los mismos:

 Se ha probado que convergen globalmente (desde cualquier punto arbitrario


de partida).
 Tienen relación lineal (o incluso superior) de convergencia.
Se pretende resolver el problema general de optimización no lineal

Minimizar 𝑓(𝑿) Ec. (130)

Sujeto a 𝑔𝑗 (𝑿) ≥ 0 𝑗 = 1,2, … , 𝑚

Para ello se emplea un método iterativo que permita encontrar un nuevo punto de
diseño 𝑿𝑘+1 que mejore el punto actual 𝑿𝑘 . La expresión que proporciona el nuevo punto
de diseño es:

𝑿𝑘+1 = 𝑿𝑘 + 𝛼𝑘 𝒅𝑘 Ec. (131)

Se puede decir que encontrar el nuevo punto de diseño es encontrar un cambio en


el diseño actual que minimice el valor de la función objetivo y cumpla las restricciones.
Según lo anterior el problema se puede reformular como:

Minimizar 𝑓(𝑿𝒌 + 𝒅𝑘 )
Ec. (132)
Sujeto a 𝑔𝑗 (𝑿𝒌 + 𝒅𝑘 ) ≥ 0 𝑗 = 1,2, … , 𝑚

La idea básica de todos los métodos SQP para calcular 𝒅𝑘 consiste en convertir el
problema en un subproblema cuadrático que se resuelve por las técnicas conocidas para
dicho tipo de problemas. Hay diferentes aproximaciones para hacer la conversión del
problema, pero todas ellas se basan en sustituir las funciones 𝑓 y 𝑔𝑗 por sus desarrollos en
serie alrededor del punto de diseño 𝑿𝒌 .

En todas las aproximaciones se hace uso de la función Lagrangiana

𝐿(𝑿, 𝒖) = 𝑓(𝑿) − ∑ 𝑢𝑗 𝑔𝑗 (𝑿) Ec. (133)


𝑗=1

En donde los 𝑢𝑗 son los multiplicadores de Lagrange.


El que todas las aproximaciones utilicen la función Lagrangiana se debe a que una
vez hecha la aproximación correspondiente para convertir en cuadrático el problema se
exige a ésta el cumplimiento de las condiciones de optimalidad de Kuhn-Tucker.

∇𝐿(𝑿, 𝒖) = 0

𝑔𝑗 (𝑿) ≥ 0 𝑗 = 1,2, … , 𝑚
Ec. (134)
𝑢𝑗 ≥ 0 𝑗 = 1,2, … , 𝑚

𝑔𝑗 (𝑿)𝑢𝑗 = 0 𝑗 = 1,2, …,

La forma más directa de convertir el problema en cuadrático es hacer una


aproximación cuadrática de la función objetivo. Hacer también una aproximación cuadrática
de las restricciones conduce a un problema para el que se han propuesto algunas técnicas
iterativas (Belegundu, 1982). Lo habitual es hacer una aproximación lineal de las
restricciones. Con estas aproximaciones el problema se puede reformular como:

Minimizar 1⁄ 𝒅𝑇 ∇2 𝑓(𝑿 )𝑇 𝒅 + ∇𝑓(𝑿 )𝑇 𝒅


2 𝑘 𝑘 𝑘 𝑘 𝑘
Ec. (135)
Sujeto a )𝑇
∇𝑔𝑗 (𝑋𝑘 𝒅𝑘 + 𝑔𝑗 (𝑿𝑘 ) ≥ 0 𝑗 = 1,2, … , 𝑚

Se añade una condición para asegurar que la solución esté acotada:

1⁄ 𝒅𝑇 𝑾 𝒅 ≤ 𝑒 2 Ec. (136)
2 𝑘 𝑘 𝑘

Donde 𝑾𝑘 es una matriz que debe ser definida positiva; por tanto, basta tomar la
matriz identidad. No obstante, Belegundu (1982) muestra cómo incluyendo en dicha matriz
información de curvatura de las funciones se aumenta la relación de convergencia.

El problema así formulado consiste en encontrar una dirección 𝒅𝑘 tal que conduzca
a la región válida (ninguna restricción violada) con el menor valor posible para la función
objetivo y a una distancia no superior a 𝑒. No obstante, si 𝑒 es lo suficientemente pequeño,
o el k-ésimo punto de diseño está suficientemente lejos de la región válida, será imposible
encontrar una solución que cumpla Ec. (135) y Ec. (136) al mismo tiempo.
Las condiciones de optimalidad del punto elegido quedan más patentes planteando
las condiciones de Kuhn-Tucker:

∇𝑓(𝒙𝑘 ) + (∇2 𝐿(𝒙𝑘 , 𝒖′) + 𝜇′𝑰)𝒅𝑘 − ∑ 𝑢𝑗 ′ ∇𝑔𝑗 (𝒙𝑘 )𝑇 = 0


𝑗=1

𝑢𝑗 ′ (∇𝑔𝑗 (𝒙𝑘 )𝑇 𝒅𝑘 + 𝑔𝑗 (𝒙𝑘 )) = 0 𝑗 = 1,2, … , 𝑚


Ec. (137)
𝜇′(1⁄2𝑑𝑘𝑇 𝑾𝑘 𝒅𝑘 − 𝑒 2 ) = 0

𝑢𝑗′ ≥ 0

𝜇′ ≥ 0

En estas condiciones es importante observar que la expresión de la función


Lagrangiana se ha obtenido haciendo una aproximación cuadrática tanto de la función
objetivo como de las restricciones.

De estas condiciones se deduce que tomando 𝜇′ > 0 se asegura indirectamente que


la región válida se puede alcanzar independientemente de lo lejano que esté el punto de
diseño 𝑿𝑘 . Por lo tanto, imponiendo esta condición en Ec. (137) se obtiene:

∇𝑓(𝑿𝑘 ) − ∑ 𝑢𝑗 ′ ∇𝑔𝑗 (𝑿𝑘 )𝑇 + (∇2 𝐿(𝑿𝑘 , 𝒖′ ) + 𝜇′ 𝑰)𝒅𝑘 = 0


𝑗=1

Ec. (138)
𝑢𝑗 ′ (∇𝑔𝑗 (𝑿𝑘 )𝑇 𝒅𝑘 + 𝑔𝑗 (𝑿𝑘 )) = 0; 𝑗 = 1,2, … , 𝑚

𝑢𝑗 ′ ≥ 0

Problema que siempre tiene solución.

Afortunadamente no es necesario resolver el problema así planteado. Haciendo los


cambios:

𝑢𝑗 ′ 1
𝑢𝑗 = 𝜇= ′ Ec. (139)
𝜇 𝑢
Se puede reescribir la Ec. (138) como:

𝜇∇𝑓(𝑿𝑘 ) − ∑ 𝑢𝑗 ′ ∇𝑔𝑗 (𝑿𝑘 )𝑇 + 𝜇(∇2 𝐿(𝑿𝑘 , 𝒖) + 𝜇′ 𝑰)𝒅𝑘 = 0


𝑗=1

Ec. (140)
𝑢𝑗 (∇𝑔𝑗 (𝑿𝑘 )𝑇 𝒅𝑘 + 𝑔𝑗 (𝑿𝑘 )) = 0 𝑗 = 1,2, … , 𝑚

𝑢𝑗 ≥ 0𝑗 = 1,2, … , 𝑚

Planteando ahora el problema cuadrático:

Minimizar 1⁄ 𝒅𝑇 𝑾 𝒅 + 𝜇𝑓(𝑿 )𝑇 𝒅
2 𝑘 𝑘 𝑘 𝑘 𝑘
Ec. (141)
Sujeto a )𝑇
𝑔𝑗 (𝑋𝑘 𝒅𝑘 + 𝑔𝑗 (𝑿𝑘 ) ≥ 0 𝑗 = 1,2, … , 𝑚

Se observa que las condiciones de Kuhn-Tucker para este problema son las mismas
de la Ec. (140) sin más que tomar:

𝑾𝑘 = ∇2 𝐿(𝒙𝑘 , 𝒖) + 𝜇′ 𝑰 Ec. (142)

𝜇 = 1 ; 𝜇′ = 1 Ec. (143)

De la Ec. (142) se puede comentar que para un 𝜇′ suficientemente grande, 𝑾𝑘 es


definida positiva. Por tanto, 𝑾𝑘 puede verse como una aproximación definida positiva al
Hessiano de la función Lagrangiana. Esta matriz, conteniendo información de curvaturas
de las funciones, es la que hace que el método tenga una relación de convergencia
superlineal. No obstante, dado el esfuerzo de cálculo que requiere conocer la matriz, 𝑾𝑘
es habitual recurrir aestimaciones de la misma del tipo Quasi-Newton. Por lo tanto, la
relación de convergencia suele ser menor que la máxima posible, aunque sigue siendo igual
o mayor que la unidad mientras siga siendo definida positiva.

El significado de la Ec. (143) se puede ver claramente en Belegundu (1982), donde


se llega a una expresión:
𝒅𝑘 = 𝜇𝒅1 + 𝒅2 Ec. (144)

En donde 𝒅1 es la componente de máximo descenso (mayor reducción de la función


objetivo) mientras que 𝒅2 es la componente de máximo acercamiento a la región factible.
Por tanto, tomar 𝜇 = 1 significa dar el mismo peso a la minimización de la función objetivo
que al cumplimiento de las restricciones.

De todo lo anterior se deduce que se puede resolver el problema de Ec. (141) para
encontrar el valor 𝒅𝑘 buscado en Ec. (132). No obstante, es difícil encontrar la solución
debido a que:

𝑚
2 2 )𝑇
∇ 𝐿(𝑿𝑘 , 𝒖) = ∇ 𝑓(𝑿𝑘 − ∑ 𝑢𝑗 ∇2 𝑔𝑗 (𝑿𝑘 )𝑇 Ec. (145)
𝑗=1

Es una función que depende de u, que es el vector de los multiplicadores de


Lagrange en el óptimo. Dado que el valor de los multiplicadores en el óptimo no es conocido
a priori, para obtener la solución se recurre a estimaciones de los mismos para las diferentes
iteraciones

𝑚
2 2 )𝑇
∇ 𝐿(𝑿𝑘 , 𝒖) = ∇ 𝑓(𝑿𝑘 − ∑ 𝑢𝑘𝑗 ∇2 𝑔𝑗 (𝑿𝑘 )𝑇 Ec. (146)
𝑗=1

Estas estimaciones de los multiplicadores se pueden realizar de varias formas. Una


de las más habituales es:

𝒖𝒌 = −𝑵+ 𝒇(𝑿𝑘 ) Ec. (147)

Siendo

𝑵+ = (𝑵𝑇 𝑵)−1 𝑵𝑇 Ec. (148)

La pseudoinversa de la matriz N formada por 𝑚columnas que contienen a los


vectores 𝑔𝑗 (𝒙𝑘 )𝑇 . Esta aproximación será tanto más real conforme el proceso iterativo se
vaya acercando al óptimo.
2.2.6. RBDO
Según Kusano (2013) las optimizaciones determinísticas convencionales utilizan un
factor de seguridad parcial para tomar en cuenta las incertidumbres del sistema como las
suposiciones de las cargas dinámicas y estáticas, las propiedades del material,
simplificaciones geométricas de los componentes, entre otros. Debido al constante
crecimiento de la industria, los diseños óptimos dejan un pequeño margen de error en las
simulaciones o en las imperfecciones de producción de los productos, como resultado, los
diseños determinísticos con un factor de seguridad pequeño puede conllevar a un diseño
no confiable. Por otra parte, el uso exagerado de factores de seguridad debido a la falta de
conocimiento de las incertidumbres puede producir diseño demasiado conservativo y no
competitivo. También el autor cita que Libertiny describe que el uso de un factor de
seguridad no es una aplicación directa de un diseño seguro, pero si es una cruda estimación
de los efectos de los errores acumulados en el análisis.

El RBDO, o diseño de optimización basado en confiabilidad, provee una alternativa


a estos métodos convencionales de optimización determinística y busca el mejor término
media entre el costo y la seguridad considerando las incertidumbres del sistema. La
confiabilidad estructural es alcanzada satisfaciendo las restricciones probabilísticas que
integran las incertidumbres del sistema, que pueden ser cuantificadas por algunos
momentos estadísticos para cada variable aleatoria, de esta manera un ingeniero puede
establecer una probabilidad de falla determinada eligiendo la confiabilidad correspondiente
del sistema. Por ejemplo, en vez de limitar el máximo estrés o el máximo desplazamiento
del miembro de una estructura a un valor específico, el RBDO restringe la probabilidad de
falla debido a estos modos de falla debajo de un valor predeterminado considerando las
incertidumbres en las propiedades del material, las condiciones de carga, geometría, etc.
Por lo tanto el RBDO permite a los ingenieros diseñar sistemas estructurales con un factor
de seguridad valido. Estos métodos se están volviendo muy populares en diferentes
industrias como las aeroespaciales, automotrices, civiles, de defensa y de energía, ya que
ayudan a obtener un diseño más seguro a un costo menor. Kusano cita a Nikolaidis y
colaboradores mencionando que las compañías como General Electric, General Motor,
Ford, Boeing, Lockheed Martin han utilizado el RBDO logrando mejorar dramáticamente su
posición competitiva y ahorrándose billones de dólares en la ingeniería de diseño.

Dirigiendo un poco más directo al concepto de RBDO, según Ramu (2007) la


optimización es el proceso de minimizar un costo, el cual es una función de las variables de
diseños (y de otras variables) sujetas a las restricciones que preescriben los requerimientos
de diseño. Muchas veces, las variables involucradas son aleatorias por lo tanto se aplican
las aproximaciones probabilísticas para involucrar las incertidumbres como una alternativa
al enfoque tradicional del factor de seguridad, para obtener mejores diseños. Muchas
aproximaciones probabilísticas han sido propuestas en las ultimas década como Robust
Design Optimization (Phadke, 1989, Gu, 2000), Reliability-based Design Optimization
(Frangopal, 1985, Tu, 1999), Fuzzy optimization (Sakawa 1993, Maglaras y colaboradores,
1997), Reliability design using evidence theory (Soundappan y colaboradores., 2004). El
RBDO es ampliamente utilizado ya que permite al ingeniero establecer el nivel de
confiabilidad requerido.

Formulación Estándar
Ante todo, el diseño basado en confiabilidad consiste en minimizar una función de
costo satisfaciendo las restricciones de confiabilidad, las restricciones de confiabilidad están
basadas en la probabilidad de falla correspondiente a cada modo de falla o un solo modo
de falla describiendo las fallas del sistemas, la estimación de las probabilidad de fallas son
usualmente calculadas mediante los análisis de confiabilidad propuestos en secciones
anteriores (FORM, SORM, Montecarlo).

Se puede formular de la siguiente forma:

Minizar Costos (d)


Sujeto a 𝑃[𝐺𝑖 (𝒅, 𝒙) ≤ 0] ≤ 𝑃𝑓 𝑖 = 1,2, … , 𝑚
𝑖

𝑔𝑗 (𝒅) ≤ 0 𝑗 = 𝑚 + 1, … , 𝑀

Donde d es el vector de las variables de diseño, x es el vector de las variables


aleatorias, Costos es la función objetivo o la función de costos, P [] es el operador de
probabilidad, 𝑃𝑓 es la probabilidad de falla permitida para cada modo de falla, 𝐺𝑖 es la i-
𝑖

esima función de rendimiento, 𝑔𝑗 es la restricción determinística, m es el número de las


funciones de rendimiento, M es el número total de las restricciones de confiabilidad y
determinísticas. Las restricciones de confiabilidad limitan a la probabilidad de la función de
rendimiento a estar por debajo de la probabilidad de falla predeterminada.
2.2.7. MECANICA DE MATERIALES
2.2.7.1. Materiales Isotrópicos
Un material es isotrópico si sus propiedades mecánicas y térmicas son las mismas
en todas las direcciones. Un material es ortotrópico cuando sus propiedades mecánicas o
térmicas son únicas e independientes en tres direcciones perpendiculares entre sí.

Los materiales isotrópicos pueden tener estructuras microscópicas homogéneas o


no homogéneas. Por ejemplo, el acero muestra un comportamiento isotrópico, aunque su
estructura microscópica no es homogénea.

Un material es ortotrópico cuando sus propiedades mecánicas o térmicas son únicas


e independientes en tres direcciones perpendiculares entre sí. Algunos ejemplos de
materiales ortotrópicos son la madera, muchos cristales y los metales laminados.

2.2.7.2. Módulo de Elasticidad


En la primera parte del ensayo de tracción, el metal se deforma elásticamente. Es
decir, si la fuerza que actúa sobre la muestra desaparece, la probeta volverá a su longitud
inicial. Para metales, la máxima deformación elástica suele ser inferior a 0.5 por ciento. En
general, los metales y aleaciones muestran una relación lineal entre la tensión aplicada y la
deformación producida en la región elástica del diagrama convencional que se describe por
la ley de Hooke:

σ (tensión) =E 𝜀 (deformación) Ec. (149)

σ(𝑡𝑒𝑛𝑠𝑖𝑜𝑛)
𝐸 = 𝜀 (𝑑𝑒𝑓𝑜𝑟𝑚𝑎𝑐𝑖𝑜𝑛) (unidades en Pa o Psi) Ec. (150)

Donde E es el módulo de elasticidad, o módulo de Young.


2.2.7.3. Limite elástico
Es un valor muy importante para el diseño estructural en ingeniería, pues es el nivel
de tensión al que un metal o aleación muestran una deformación plástica significativa.

Debido a que no hay un punto definido de la curva tensión-deformación donde acaba


la deformación elástica y empieza la deformación plástica, se determina el límite elástico
como la tensión a la que se produce una deformación elástica definida.

2.2.7.4. Esfuerzo de Fluencia


En un punto ligeramente por arriba del límite elástico, el material empieza a ceder
más fácilmente al esfuerzo aplicado, con lo que aumenta su razón de deformación. Esto se
conoce como punto de fluencia y el valor del esfuerzo en dicho punto define el límite de
cedencia o fluencia como σy del material.

El punto de fluencia a la tensión de un material que no exhiba un punto de fluencia


claro debe definirse mediante una línea convencional, que se dibuja paralela a la curva
elástica, con un desplazamiento de algún pequeño porcentaje a lo largo del eje de
deformaciones. Muy a menudo se utiliza un desplazamiento de 0,2% en las deformaciones.
El punto de fluencia es entonces tomado en la intersección de la curva de esfuerzo
deformación y la línea convencional, como se muestra en la siguiente figura.

Fig. (34) Tensión convencional vs. Deformación convencional


2.2.7.5. Deformación Elástica y Plástica
Cuando se somete una pieza de metal a una fuerza de tracción uniaxial se produce
la deformación del metal. Si el metal recupera sus dimensiones originales cuando se elimina
la fuerza, se considera que el metal ha sufrido una deformación elástica. La cantidad de
deformación elástica que puede soportar un metal es pequeña pues durante la deformación
elástica, los átomos del metal se desplazan de sus posiciones originales, pero sin llegar a
alcanzar nuevas posiciones. De este modo, cuando la fuerza sobre el metal deformado
elásticamente se elimina, los átomos del metal vuelven a sus posiciones iniciales y el metal
recupera su forma inicial. Si el metal se deforma tanto que no puede recuperar
completamente sus dimensiones originales, se considera que ha sufrido una deformación
plástica. Durante la deformación plástica, los átomos del metal se desplazan continuamente
desde sus posiciones iniciales hasta otras nuevas. La propiedad que tienen algunos
metales de ser extensamente deformados sin que se fracturen, es una de las más útiles en
ingeniería.

2.2.7.6. Tensión
Por definición, la tensión sobre una barra de caso cilíndrica, de longitud l0 y área de
la sección transversal A0 sujeta a una fuerza de tracción uniaxial F, es considerada igual a
la fuerza media de fracción F sobre la barra dividida por el área de su sección transversal
A0. Por tanto,

𝐹 ( fuerza media de tracción uniaxial )


σ= Ec. (151)
𝑎 (𝑎𝑟𝑒𝑎 𝑑𝑒 𝑙𝑎 𝑠𝑒𝑐𝑐𝑖𝑜𝑛 𝑎𝑜 𝑡𝑟𝑎𝑛𝑠𝑣𝑒𝑟𝑠𝑎𝑙 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙)

2.2.7.7. Coeficiente de Poisson


La deformación longitudinal elástica de un metal produce un cambio simultáneo de
las dimensiones laterales. Como se muestra en la siguente figura, una tensión a tracción o
𝜎𝑧 produce una deformación axial + 𝜀𝑧 y una contracción lateral de –𝜀𝑥 y –𝜀𝑦 . Si la conducta
es isotrópica, 𝜀𝑥 y 𝜀𝑦 son iguales. La relación:

𝜀(𝑙𝑎𝑡𝑒𝑟𝑎𝑙) 𝜀𝑥 𝜀𝑦
𝑉=− = − =− Ec. (152)
𝜀(𝑙𝑜𝑛𝑔𝑖𝑡𝑢𝑑𝑖𝑛𝑎𝑙) 𝜀𝑧 𝜀𝑧
Se denomina coeficiente Poisson. Para materiales ideales, v = 0.5. No obstante, en
materiales reales el coeficiente de Poisson oscila entre 0.25 y 0.4, con un valor medio
alrededor de 0.3.

Fig. (35) Cuerpo Sometido a Tracción.


Fuente: Smith y Hashemi (2004

2.2.7.8. Fatiga en Estructuras


Se ha reconocido, a partir de los años 1850, que un metal o estructura sometidos a
esfuerzos repetitivos o fluctuantes fallará; el valor de este esfuerzo está muy por debajo del
valor del esfuerzo necesario para que dicho material falle con una sola aplicación. La falla
ocurrida bajo condiciones de cargas dinámicas, es llamada falla por fatiga, generalmente
ésta ocurre luego de un período de servicio considerable. No ocurre un cambio visible en la
estructura del material que indique que fallará por fatiga, de modo que se pueda prevenir o
evitar. La fatiga se ha convertido progresivamente en materia de estudio para el diseño de
las tecnologías prevalecientes, actualmente al menos un 90% de las causas de falla en
servicio, son debidas a la fatiga.

Según la ASTM (American Society for Testing Materials) se define como: “Progreso
de cambio estructural progresivo y localizado que ocurre en un material sometido a
condiciones que producen esfuerzos y deformaciones fluctuantes en algún punto o puntos
y el cual puede culminar en grietas o fractura completa después de un número suficiente
de fluctuaciones”.

En una escala macroscópica la superficie de fractura es usualmente normal a la


dirección del esfuerzo principal de tensión, éstas pueden ser reconocidas generalmente por
el aspecto de la superficie, que presenta dos regiones bien diferenciadas, una región lisa,
debida al frotamiento que ocurre cuando se propaga la grieta a través de la sección de la
pieza, y otra región rugosa, originada por la fractura catastrófica del material debida a la
disminución del área efectiva de la sección.

De acuerdo con los autores Budynas y Keith (2008), afirma que cuando las partes
de máquinas o estructuras fallan estáticamente, por lo general desarrollan una deflexión
muy grande, puesto que el esfuerzo sobrepasó el límite elástico; por ello, la parte se
reemplaza antes de que en realidad suceda la fractura. De esta manera la falla estática
proporciona una advertencia visible. Pero una falla por fatiga no proporciona una
advertencia. Es repentina y total y, por ende, peligrosa. Es relativamente simple diseñar
contra la falla estática porque el conocimiento que se tiene acerca de este tipo de falla es
muy completo.

Las causas de la fatiga vienen dadas principalmente por los siguientes factores, si
alguna de estos no se presenta, no se produciría el inicio y la propagación de la grieta por
fatiga.

1. La acción simultánea de esfuerzos cíclicos que originan la grieta.


2. La acción de esfuerzos a tracción que adelantan y propagan el crecimiento
de la grieta.
3. La presencia de deformación plástica.

Además existen otras variables las cuales tienden a alterar las condiciones para la
fatiga, entre las cuales se pueden mencionar los concentradores de esfuerzos, la corrosión,
la temperatura, la estructura metalúrgica, los esfuerzos residuales y las cargas combinadas.

2.2.7.8.1. Esfuerzos cíclicos presentes en la fatiga


Es conveniente hacer una visión general de los diferentes tipos de esfuerzos que
pueden producir fatiga, estos se ilustran en la Fig. (36).

1. Ciclo de inversión completa o alterna del esfuerzo (Fig. (36 a)): donde el
esfuerzo de tracción se considera positivo y el de compresión negativo. El
esfuerzo máximo (σmáx. ó Smáx.) se considera igual al esfuerzo mínimo (σmin ó
Smin) pero de signos contrario y el esfuerzo medio es igual a cero (σ m ó Sm =
0).
2. Ciclos de esfuerzos de tensión repetidos (Fig. (36 b)): Donde Smáx. y Smin. Son
diferentes, ambas pueden estar en la región de tracción o pueden tener σ
opuestos.
3. Ciclo complejo de esfuerzos irregulares o aleatorios (Fig. (36 c)): Donde los
esfuerzos no siguen ningún patrón de aplicación.

Fig. (36) Esfuerzos típicos de ciclos de fatiga.


(a) Esfuerzos alternos (inversión); (b) Esfuerzos repetidos; (c) Ciclos de esfuerzos irregulares.
Fuente: Gedler y Paredes (2003).

Estos ciclos de esfuerzos están constituidos por dos componentes: un esfuerzo


medio o estacionario, y otro alterno o variable; también se debe considerar el intervalo de
esfuerzos.

Esfuerzo alterno: Sa = Sr/ 2 Ec. (153)

Esfuerzo medio: Sm = (Smáx. + Smín. ) / 2 Ec. (154)

Esfuerzo máximo: Smáx. = Sm + Sa Ec. (155)

Esfuerzo mínimo: Smin = (Smáx – Smin) Ec. (156)

Intervalos de esfuerzos: Sr = (Smáx - Smin) Ec. (157)


Otras cantidades utilizadas son la relación de esfuerzos R = Smín / Smáx y A = Sa / Sm;
en las ecuaciones anteriores, los esfuerzos pueden ser reemplazados por las
deformaciones o por el factor de intensidad de esfuerzos.

La relación R puede variar desde –1 hasta +1. Por ejemplo, si el esfuerzo se invierte
por completo, es decir, si Smín = Smáx, entonces R = -1. A medida que el valor de R se
aproxima a +1, el intervalo de esfuerzos Sr tiende a cero y la carga se convierte en monótona
(constante) (Gedler y Paredes, 2003).

2.2.7.8.2. Curvas de whöler


Las curvas de Whöler también conocidas como curvas S-N es un método bastante
recomendado para representar ordenadamente todos los datos obtenidos de los ensayos y
pruebas de fatiga y al mismo tiempo tener una rápida visualización de los resultados y
principales propiedades del material.

Fig. (37) Curvas típica de fatiga (curvas de Whöler) para metales férreos y no férreos.
Fuente: Gedler y Paredes (2003).

La curva S-N también suele ser representada en escala doble logarítmica para
mayor comodidad, colocando el logaritmo decimal de los esfuerzos alternantes (log S) en
el eje de las abscisas, contra el logaritmo decimal del número de ciclos a falla (log N),
transformando de esta manera la curva en una línea recta Fig. (38), la cual es expresada
mediante la ecuación sugerida por Basquin.
Fig. (38) Curva S-N. (Esfuerzo Vs Numero de ciclos)
Fuente: Gedler y Paredes (2003).

Ecuación de Basquin: Sa = S’f (2N) b Ec. (158)

Donde Sa es la resistencia a la fatiga del material; S’f representa el coeficiente de


resistencia a la fatiga, b representa el exponente de fatiga, 2N el número de reversos a falla
o también puede ser representada por una ecuación potencial simple:

Sa = Sf (N) b Ec. (159)

Donde, Sa es la resistencia a la fatiga del material, Sf sería el coeficiente de


resistencia a la fatiga, N el número de ciclos y b el exponente de fatiga.

Para algunos materiales ingenieriles importantes como el acero y el titanio, la curva


S-N se vuelve horizontal para cierto valor de esfuerzo. Por debajo de este esfuerzo, el cual
es llamado límite a la fatiga, el material podría tener un número infinito de ciclos sin que
falle. Muchos metales no ferrosos como aleaciones de aluminio, de magnesio y de cobre,
tienen una curva S-N cuya pendiente decrece gradualmente mientras aumenta el número
de ciclos. Estos materiales no tienen un límite a la fatiga real, ya que esta curva nunca se
torna horizontal (Gedler y Paredes, 2003).
2.2.7.8.3. Características estructurales de la fatiga
Debido a que la mayoría de los materiales ingenieriles presentan defectos y
concentradores de esfuerzo, tales como inclusiones, poros, muescas, dislocaciones y otros,
que intensifican la deformación, la mayor parte de las grietas de fatiga se originan y
propagan en regiones que presentan una deformación más severa como defectos
estructurales.

Si el componente está sometido a cargas de suficiente magnitud, se formará


eventualmente alguna grieta o grietas de fatiga en alguna región de tensiones altas,
generalmente en la superficie; y se progresará gradualmente a través del material hasta
producir la fractura total, aunque es posible que la grieta se inicie en el interior del
espécimen, los especímenes pueden ser sin recubrimientos y con recubrimientos aplicados;
para estos últimos existe una entre cara, en la cual dependiendo de las modificaciones
superficiales que ocurran en el metal base al momento de ser aplicado el recubrimiento,
puede que influya en la formación de las grietas en el interior.

Hay dos o tres zonas que pueden identificarse en cada superficie fracturada:

Zona 1: En los alrededores de la región de origen de la grieta la superficie tiene, a


menudo, un aspecto liso mostrando señales concoidales; esta es la zona en la que la grieta
de fatiga se ha extendido con relativa lentitud y corresponde a la etapa I.

Zona 2: En algunos casos puede distinguirse una segunda zona menos lisa en la
que la grieta se ha propagado más rápidamente, quizás en varios lugares a la vez, de modo
que la superficie de fractura es irregular.

Zona 3: La tercera zona es el área en la cual se produjo la fractura final, cuando se


redujo la sección y el metal no resiste la aplicación de la última carga. Esta zona puede
tener un aspecto cristalino indicando que la fractura final fue frágil o un aspecto fibroso
indicando una fractura final dúctil.

Si una pieza fracturada se ha sometido a cargas de compresión, puede perderse


algún detalle en las superficies fracturadas como resultado de un repetido martilleo de la
superficie agrietada antes de que tenga lugar la fractura completa, esta acción produce un
aspecto pulido; otra característica de una falla por fatiga es la coloración u oxidación de
parte de las superficies fracturadas indicando que ha existido una grieta durante algún
tiempo.
Bajo la acción de cargas cíclicas, la zona plástica (o zona de deformación) se
desarrolla desde la punta del defecto. Esta zona de alta deformación se transforma en un
sitio ideal para la nucleación de una grieta de fatiga. La grieta se propaga, bajo los esfuerzos
aplicados, a través del material hasta la fractura total. A nivel microscópico, la característica
más importante del proceso de fatiga, es la nucleación de una o más grietas bajo la
influencia de esfuerzos que exceden el esfuerzo de fluencia, en sitios conocidos como
extrusiones o intrusiones de bandas de deslizamiento.

Fig. (39) Microdeformación que conduce a la formación de grietas de fatiga.


(a) Deformación estática. (b) Deformación de fatiga que conduce a la formación de una entalla
superficial (intrusión). (c) Deformación por fatiga que conduce a la extrusión de una banda de
deslizamiento.
Fuente: Gedler y Paredes (2003).

En materiales de alta resistencia o metales frágiles el mecanismo de fatiga no


involucra la formación de bandas de deslizamiento y las microgrietas se forman
directamente en discontinuidades como inclusiones o poros y crecen a lo largo de planos
de máximo esfuerzo de tensión.

El proceso de fatiga, se divide generalmente en tres etapas. La primera se produce


en los metales cuando el nivel de esfuerzos aplicados es inferior al límite elástico estático
inicial, entonces se produce una deformación localizada que endurece el metal hasta que
no resiste el esfuerzo aplicado.

La segunda etapa se extiende desde el momento de endurecimiento por


deformación hasta la formación de una grieta visible de fatiga, es en esta etapa que se inicia
la grieta de fatiga. La tercera etapa es la de propagación de la grieta hasta alcanzar un
tamaño lo suficientemente grande para alcanzar la fractura total.

Cada una de estas etapas genera una textura diferente en la superficie de la grieta
como se observa en la Fig. (40); en esta figura se pueden observar dos zonas bien
diferenciadas: A, área de fatiga, que es relativamente lisa; y B, área de fractura final, que
posee una textura más rugosa e irregular. Esta área de fractura final, es evidencia de la
deformación plástica que ocurre antes de la separación final. El área de fatiga contiene el
origen o los orígenes O y otras características que indican la dirección y velocidad de
crecimiento de grieta en cualquier etapa de su propagación. Las marcas radiales D y las
marcas concoidales E, son marcas residuales dejadas por el avance de la grieta y ambas
pueden ser utilizadas para ubicar el origen de la misma (Gedler y Paredes, 2003).

Fig. (40) Diferentes texturas generadas en la superficie de fractura por el avance de la grieta.
Fuente: Gedler y Paredes (2003).

2.2.7.8.4. Términos en Fatiga


Vida a la fatiga (N): es el número total de ciclos de esfuerzo que soporta un
componente determinado antes de producirse la falla en él.

Resistencia a la fatiga: es el valor teórico de esfuerzo al cual ocurre la falla para


un cierto número de ciclos, partiendo del diagrama S-N.
Límite de fatiga: es el valor límite de la resistencia a la fatiga promedio cuando N
se hace muy grande. Para valores inferiores a este límite, encontraremos que la probeta
resistirá una cantidad infinitamente grande de ciclos sin que se produzca la fractura. Es
importante destacar que la mayoría de los metales no ferrosos no exhiben este límite de
fatiga, por los que sus curvas S-N alcanzan un alto número de ciclos a esfuerzos muy bajos
(Gedler y Paredes, 2003).

2.2.7.8.5. Factores que afectan la vida a la fatiga


Composición del material: Según su composición los materiales en fatiga se
dividen en dos grupos, las aleaciones ferrosas y de Titanio exhiben un límite de fatiga bien
definido, mientras que las aleaciones de composición no ferrosa, no exhiben un límite de
fatiga bien definido y sus curvas se presentan decrecientes más allá de 108 o 109 ciclos.

Tamaño de grano: Por lo general un material de grano fino exhibe mejores


propiedades de fatiga que uno con grano grueso. A temperaturas elevadas la superioridad
del tamaño de grano se hace menos significante cuando cambia el patrón de fractura
transgranular a intergranular. Con la aplicación de cargas cíclicas en dirección longitudinal
de los granos, se obtienen propiedades de resistencia a la fatiga mayores que si se aplican
las cargas en dirección transversal de los granos.

Tratamientos térmicos: las propiedades de resistencia a la fatiga son


significativamente afectadas por los tratamientos térmicos y dependientes del tipo de
tratamiento aplicado; generalmente las propiedades de fatiga aumentan con cualquier
tratamiento que mejore las propiedades de tracción.

Discontinuidades geométricas: la presencia de cualquier discontinuidad


geométrica afecta en gran medida la resistencia a la fatiga de un material, debido a que
esta actúa como un concentrador de esfuerzo. El nivel de influencia que la discontinuidad
pueda tener en la propiedad de resistencia a la fatiga dependerá de las dimensiones
relativas, del tipo de carga y la sensibilidad de la entalla que presente el material.

Temperatura: en general, la resistencia a la fatiga es incrementada a temperaturas


por debajo de la temperatura ambiente y disminuida a temperaturas por encima de ésta,
aunque pueden existir algunas excepciones.

Frecuencia de aplicación de la carga: entre 200 y 7000 ciclos/min., se ha


observado poco o ningún efecto sobre la resistencia a la fatiga, asumiendo que la
temperatura permanece constante mientras se lleva a cabo el ensayo. Hay alguna
evidencia de que por debajo de 200 ciclos/min. Ocurre una pequeña disminución de la
resistencia a la fatiga de algunos materiales. En el intervalo comprendido entre 7000 y
60000 - 90000 ciclos/min., existe un incremento en la resistencia a la fatiga de la mayoría
de los materiales, pero por encima de estas velocidades se presenta una marcada
disminución de la resistencia. También se ha determinado que los periodos de descanso
entre los ciclos o entre los bloques de ciclos no tienen un efecto mensurable sobre la
resistencia a la fatiga.

Tamaño del componente: los componentes de menor tamaño presentan una


mayor resistencia a la fatiga que los de gran tamaño, posiblemente debido a la menor área
superficial y el menor volumen donde existe una menor probabilidad de que existan
defectos.

Condiciones superficiales: generalmente, las propiedades de fatiga son afectadas


significativamente por las condiciones superficiales, debido a que la mayoría de las grietas
de fatiga se inician en la superficie. Entre los factores que afectan la superficie de una
probeta de fatiga se tienen:

 La rugosidad superficial: la resistencia a la fatiga aumenta a medida que disminuye


la rugosidad y mientras menor sea esta última se minimizarán los concentradores
de esfuerzo locales. Por esta razón, se le debe prestar especial atención a la
preparación superficial de la probeta.
 Cambios en las propiedades superficiales: debido a la influencia que tiene la
condición superficial sobre la resistencia a la fatiga, cualquier fenómeno que cambie
la resistencia a la fatiga de la superficie del material, alterará significativamente las
propiedades de fatiga. Por ejemplo la cementación, la nitruración, deposición de
algunos recubrimientos y el galvanizado, entre otros, afectan la resistencia a la fatiga
dependiendo del material base.

Esfuerzos residuales superficiales: la resistencia a la fatiga se puede ver afectada


por operaciones tales como trituración, pulido y maquinado debido al endurecimiento y al
incremento de esfuerzos residuales en la superficie que estos provocan. Si los esfuerzos
residuales son de tensión, se disminuye la resistencia a la fatiga, mientras que si son
esfuerzos de compresión se incrementa dicha resistencia (Gedler y Paredes, 2003).
2.2.7.8.6. Modelos de Falla por Fatiga
Según Barroso (2015), en el diseño contra la falla por fatiga actualmente se cuenta
con tres modelos, y cada uno de ellos tiene su sitio y objetivo: el procedimiento de esfuerzo-
vida (S-N), el procedimiento de deformación-vida (ε-N) y el método mecánico de fractura
lineal elástica.

2.2.7.8.6.1. Esfuerzo-Vida
Las teorías de falla por fatiga están fuertemente relacionadas con el número de
ciclos (ni/Ni,f), donde ni y Ni,f son respectivamente, el número de ciclos de esfuerzos
aplicados y la vida a la fatiga en combinación con la amplitud de esfuerzo y los niveles de
esfuerzo. El enfoque de este tipo de análisis se basa en determinar la vida a la fatiga en
función del daño causado por el esfuerzo aplicado a través de métodos demostrados a
partir de la ingeniería.

Desde mediados de los años 1800, un método estándar de análisis y diseño a la


fatiga ha tenido como base el esfuerzo. Este método también hace referencia a la vida en
función del esfuerzo (S-N) y se distingue de otras técnicas de diseño y análisis de fatiga por
varias características:

 Los ciclos de esfuerzo son el parámetro fundamental para caracterizar la falla


por fatiga.
 Condiciones de altos ciclos de fatiga están presentes: alto número de ciclos
para la alcanzar la falla y pequeña deformación plástica debido a los ciclos
de carga.

Durante los ensayos de fatiga, la probeta es sometida a cargas alternantes hasta la


ruptura. Las cargas aplicadas a la muestra son definidas por el rango de esfuerzo (Sr) como
se muestra en la Ec. (160), o una contante de amplitud de esfuerzo (Sa) o esfuerzo
alternante está representada en la Ec. (161). El rango de deformación es definido por la
diferencia algebraica entre el esfuerzo máximo (Smax) y el esfuerzo mínimo (Smin) en un
ciclo.

𝑆𝑟 = 𝑆𝑚𝑎𝑥 − 𝑆𝑚𝑖𝑛 Ec. (160)

El esfuerzo alternante o la amplitud de esfuerzo es igual a la mitad del rango de


esfuerzo.
𝑆𝑟 𝑆𝑚𝑎𝑥 − 𝑆𝑚𝑖𝑛 Ec. (161)
𝑆𝑎 = =
2 2

Típicamente, para el análisis de fatiga es conveniente considerar los esfuerzos a


tensión positivos y los esfuerzos a compresión negativos. La magnitud del rango de
esfuerzo o del esfuerzo alternante son variables controladas o variables independientes y
el número de ciclos para alcanzar la falla es una variable dependiente. El número de ciclos
de falla es la vida a la fatiga (Nf), y cada ciclo es igual a dos cambios de inversión (2Nf). El
símbolo de esfuerzo y ciclos mencionados anteriormente están ilustrados en la Fig. (41).

Fig. (41) Símbolos utilizados para ciclos de esfuerzo vs ciclos

Fuente: Barroso (2015)

Por lo general, los ensayos de fatiga (S-N) son realizados utilizando cargas
completamente invertidas. Una carga totalmente invertida indica que la carga es alterna
sobre un esfuerzo medio igual a cero. El esfuerzo medio (Sm) está definido por la Ec. (162)

𝑆𝑚𝑎𝑥 + 𝑆𝑚𝑖𝑛 Ec. (162)


𝑆𝑚 =
2

Existen excepciones cuando se realizan pruebas de esfuerzo-vida para muestras en


las que el tipo de carga aplicada físicamente es poco probable.
Los elementos estructurales actuales son usualmente sometidos a cargas
alternantes con esfuerzos medios. Usualmente existen dos parámetros para representar el
esfuerzo medio aplicado en el objeto de estudio; el rango de esfuerzo (R) y el rango de
amplitud (A), ambos representados en las Ec. (163) y Ec. (164) respectivamente. El rango
de esfuerzo es definido como el rango mínimo de esfuerzo para un esfuerzo máximo.

𝑆𝑚𝑖𝑛
𝑅= Ec. (163)
𝑆𝑚𝑎𝑥

El rango de amplitud es la relación entre el esfuerzo alternante y el esfuerzo medio.

𝑆𝑎 1 − 𝑅
𝐴= = Ec. (164)
𝑆𝑚 1 + 𝑅

El análisis de esfuerzo-vida a la fatiga refiere el uso de ciclos de esfuerzos nominales


(S) versus vida a la fatiga; el esfuerzo a considerar está representado según el tipo de carga
en las Ec. (165) para flexión, Ec. (166) para carga axial y Ec. (167) para carga a torsión,
respectivamente. La determinación del esfuerzo nominal depende del tipo de carga y de la
configuración de la muestra. Los más comunes son, el modo de carga por flexión (M), fuerza
axial (P), o torque (T). A continuación se presentan las ecuaciones que representan cada
tipo de carga.

𝑀∗𝑐 Ec. (165)


𝑆=
𝐼
𝑃 Ec. (166)
𝑆=
𝐴
𝑇∗𝑟
𝑆= Ec. (167)
𝐽

2.2.7.8.6.2. Deformación-Vida
El método deformación-vida local se basa en el estudio de la duración (vida) de una
material cuando este es sometido a un esfuerzo y en él se produce la formación y
crecimiento de la grieta, este estudio se realiza haciendo una aproximación de la muestra
de un laboratorio bajo las mismas condiciones de deformación cíclica en el sitio de iniciación
de la grieta. Esto se ilustra en la Fig. (42). Mediante el uso de este concepto es posible
determinar la vida a la fatiga en un punto de un componente cargado cíclicamente si se
conoce la relación entre la deformación localizada de la muestra y la vida en fatiga de la
misma. Esta relación deformación-vida se representa típicamente como una curva de
deformación versus vida a la fatiga y se genera mediante la realización de ensayos de fatiga
axial con deformación controlada en muestras lisas y pulidas del material a estudiar.

Las pruebas de deformación controlada con fatiga axial son recomendadas debido
a que el material cuando está sometido a concentraciones de esfuerzo y posee alguna
discontinuidad en su superficie puede estar bajo deformación plástica cíclica, incluso aun,
cuando la mayor parte del componente se comporte elásticamente durante la carga cíclica.

Fig. (42) Concepto de deformación-Vida local.


Fuente: Barroso (2015)

El método deformación-vida local se puede utilizar de manera proactiva para un


componente durante las etapas tempranas del diseño. La estimación de la vida a la fatiga
puede hacerse para diferentes diseños geométricos y procesos de fabricación teniendo
previo conocimiento de las propiedades de los componentes. Esto traerá como resultado
una reducción en el número de iteraciones de diseño para poder identificar y rechazar
diseños insatisfactorios de manera temprana en el proceso de diseño. A su vez, esto reduce
los tiempos de diseño y genera al mercado productos de forma más rápida. Este método
se prefiere si el historial de cargas aplicadas al elemento a estudiar es irregular o al azar y
en donde el esfuerzo medio y los efectos de secuencia de carga suelen ser de importancia.
Este método también proporciona un enfoque racional para diferenciar la fatiga de alto
ciclaje y los regímenes de fatiga de bajo ciclaje e incluye la plasticidad en una muesca local
y el efecto del esfuerzo medio en la vida de fatiga.
Debido a que los datos usados para este método son de materiales relacionados
con muestras de laboratorio, los efectos de fabricación del elemento real, tales como
rugosidad de la superficie, acabado, esfuerzos residuales, y algunas alteraciones de las
propiedades del materiales, pueden no tomarse en cuenta en el estudio de la deformación-
vida. El efecto de acabado de la superficie puede ser incluido probando muestras de
laboratorio con la misma condición de superficie, pero el costo y el tiempo adicional
implicado pueden disminuir el beneficio de usar este tipo de estudio de deformación-vida
(Barroso, 2015).

2.2.7.8.6.3. Fractura lineal-elástica


La primera fase del agrietamiento por fatiga se designó como fatiga de la zona I. Se
supone que el desplazamiento de cristal que se extiende a través de varios granos
contiguos, inclusiones e imperfecciones superficiales desempeña un papel. Como la mayor
parte de este fenómeno es invisible para el observador, sólo se dice que la zona I involucra
a varios granos.

La segunda fase, de la extensión de la grieta, se llama fatiga de zona II. El avance


de la grieta (esto es, la creación de una nueva área de grieta) produce evidencia que puede
observarse en la micrografía de un microscopio electrónico. El crecimiento de la grieta es
ordenado. La fractura final ocurre durante la zona III de fatiga, aunque no hay fatiga
involucrada. Cuando la grieta es suficientemente grande, de forma que K1 = KIc para la
amplitud del esfuerzo involucrado, entonces KIc es la intensidad del esfuerzo crítico del
metal sin daño, y existe una falla catastrófica, súbita de la sección transversal restante en
sobrecarga a tensión. La zona III de la fatiga se asocia con una rápida aceleración del
crecimiento de la grieta y después de la fractura (Budynas y Keith, 2008).

2.2.7.9. Pandeo en Estructuras


El autor Ortiz (2007) define al pandeo estructural como un fenómeno de inestabilidad
elástica que puede darse en elementos comprimidos esbeltos, y que se manifiesta por la
aparición de desplazamientos importantes transversales a la dirección principal de
compresión.

En ingeniería estructural el fenómeno aparece principalmente en pilares y columnas,


y se traduce en la aparición de una flexión adicional en el pilar cuando se halla sometido a
la acción de esfuerzos axiales de cierta importancia.
La aparición de deflexión por pandeo limita severamente la resistencia en
compresión de un pilar o cualquier tipo de pieza esbelta. Eventualmente, a partir de cierto
valor de la carga axial de compresión, denominada carga crítica de pandeo, puede
producirse una situación de inestabilidad elástica y entonces fácilmente la deformación
aumentará produciendo tensiones adicionales que superarán la tensión de rotura,
provocando la ruina del elemento estructural. Además del pandeo flexional ordinario existe
el pandeo torsional o inestabilidad elástica provocada por un momento torsor excesivo.

Fig. (43) Deformación por pandeo producto de compresión de una barra.


Fuente: Ortiz (2007).

2.2.7.9.1. Análisis de Pandeo No lineal en Estructuras


Un análisis de pandeo predice el esfuerzo de pandeo teórico de una estructura
elástica ideal. Este método corresponde a una aproximación de un análisis de pandeo
elástico, que para esta instancia un análisis de pandeo de una columna coincide con una
solución clásica de Euler. Sin embargo, imperfecciones y No linealidades alejan a las
estructuras del mundo real a alcanzar su esfuerzo elástico de pandeo teórico. Por lo tanto,
un análisis de pandeo a menudo produce resultados rápidos, pero arrojando resultados no
conservadores.

Un acercamiento más preciso para predecir la inestabilidad es desarrollar un análisis


de pandeo No lineal. Esto involucra un análisis estático estructural considerando largas
deflexiones. Un incremento gradual de la carga es aplicado en este tipo de análisis para
buscar un nivel de carga a la cual la estructura de estudio se vuelve inestable. Usando esta
técnica, el modelo de estudio puede incluir características tales como imperfecciones,
comportamiento plástico, brechas y respuesta a largas deformaciones. (Lee, 2014).

Fig. (44) a) Curva Fuerza- Deformación No lineal, b) Curva de pandeo lineal.


Fuente: Lee, H. (2014)
CAPITULO III: MARCO METODOLOGICO
3.1. METODOLOGIA EMPLEADA
Tabla 4 Metodología a seguir para el Diseño óptimo basado en confiabilidad del pedal de freno tipo
FSAE.

Actividades Procesos
Definición de Variables y parámetros
geométricos o propiedades mecánicas y físicas
Definición de Cargas y condiciones de borde
Definir modelo numérico
Definición de Suposiciones de la simulación
Selección de la malla F.E.M (utilizar diseño
inicial)

Realización de Análisis de sensibilidad


Generación de conjuntos Definición de Variables de entrada
Definición de Variables de salida
Realización de Diseño de experimentos

Conducir simulaciones

Construcción de metamodelos / Puntos de


Selección de metamodelos muestra
(KG,PR,RBF) Evaluación de metamodelos / Desempeño y
eficiencia

Calculo de error en metamodelos


Cálculo de Media y desviación estándar
seleccionados (Masa, Smax,
Selección del nivel de seguridad objetivo
Fbuck)

Selección métodos de análisis de Aplicación de métodos a modelo geométrico


confiabilidad ( MCS, FORM, SORM) inicial

Formulación del problema


Diseño optimo basado en
Aplicación de Algoritmo de optimización
confiabilidad (RBDO)
3.1.1. Definir Modelo geométrico
Para la realización de este objetivo se define detalladamente el modelo numérico
del pedal de freno a través de: parámetros fijos, variables de diseño, suposiciones en el
análisis estructural, cargas y restricciones, estudio de control de malla y validación del
modelo numérico. Éste fue construido mediante el programa computacional ANSYS 16
versión estudiantil, herramienta con la que se llevó a cabo todas las simulaciones de
elemento finito que involucra la investigación.

3.1.1.1. Definición de Variables y parámetros geométricos o propiedades


mecánicas y físicas
En el diseño del pedal de freno se establecieron dos factores de diseño como las
variables y parámetros fijos. A continuación se mostrarán con detalles las variables y
parámetros en tablas y figuras, respectivamente.

Tabla 5 Variables de diseño del pedal de freno tipo FSAE

Variables Límites (mm) Tol. basta (mm)


de diseño inferior superior min máx
d1 27 33 -0.5 0.5
d2 70 80 -0.8 0.8
d3 70 87 -0.8 0.8
d4 2 8 -0.3 0.3
d5 2 4 -0.3 0.3
d6 10 18 -0.5 0.5
d7 2 8 -0.3 0.3
d8 5 10 -0.5 0.5
d9 4 22 -0.5 0.5
d10 2 6 -0.3 0.3
d11 8 16 -0.5 0.5
d12 80 115 -0.8 0.8
d13 5 8 -0.3 0.3
d14 60 74 -0.8 0.8
d15 2 4 -0.3 0.3
d16 60 74 -0.8 0.8
d17 2 4 -0.3 0.3
d18 1.5 6 -0.3 0.3
Fig. (45) Plano referencial de las variables de diseño del pedal de freno tipo FSAE
Tabla 6 Parámetros fijos geométricos de diseño del pedal de freno tipo FSAE

Parámetros Valor Unidad Tol. Basta


de diseño min máx
c1 12.7 mm -0.008 0.010
c2 15.875 mm -0.008 0.010
c3 10 mm -0.5 0.5
c4 37.32 mm -0.8 0.8
c5 10 mm -0.5 0.5
c6 48 mm -0.8 0.8
c7 10 mm -0.5 0.5
c8 10 mm -0.5 0.5
c9 75 deg -0.5 0.5
c10 75 deg -0.5 0.5
c11 50 mm -0.8 0.8
c12 200 mm -1.2 1.2
c13 3.175 mm -0.3 0.3
c14 3.175 mm -0.3 0.3
c15 67 mm -0.8 0.8
c16 30 mm -0.5 0.5
c17 2 mm -0.2 0.2
c18 60 mm -0.8 0.8
c19 36 mm -0.8 0.8
c20 6 mm -0.3 0.3
c21 4 mm -0.3 0.3
c22 24 mm -0.5 0.5
c23 d18 mm -0.3 0.3
c24 2 mm -0.2 0.2
Fig. (46) Plano referencial de los parámetros geométricos del pedal de freno tipo FSAE.

Tabla 7 Tolerancias generales de fabricación.

Tolerancias Generales de Fabricación (ISO 2768-1)

Clase de tolerancia Desviaciones admisibles respecto al nominal (mm)


0.5 más de 3 más de 6 más de 30 más de 120
Designación Descripción
hasta 3 hasta 6 hasta 30 hasta 120 hasta 400
f fina 0.05 0.05 0.1 0.15 0.2
m media 0.1 0.1 0.2 0.3 0.5
c basta 0.2 0.3 0.5 0.8 1.2
v muy basta 0.5 1 1.5 2.5
Tabla 8 Tolerancias generales de fabricación para ángulos.

Clase de tolerancia Desviaciones admisibles en función


de la longitud del lado menor del
ángulo considerando (en mm)
Designación Descripción
Hasta 10 más de 10 más de 50
hasta 50 hasta 120
f fina
1 0.5 0.33
m media
c basta 1.5 1 0.5
v muy basta 2 2 1

En las tablas 7 y 8 se muestra las variables de diseño y parámetros con tolerancias


para la correcta realización del proceso de fabricación. Aunque el alcance de esta
investigación no involucra el proceso de construcción, se indica de forma clara las
tolerancias a usar según la norma para tolerancias DIN ISO 2768-1. Los valores de las
tolerancias representados arriba, aplicables para ángulos, están expresados en grados.

Aunado a esto, se definió una cantidad de 18 variables de diseño para tener un


mayor rango de configuraciones geométricas. Los rangos de valores de las variables de
diseño fueron seleccionados en función de ser lo más amplio posible, y a la vez, evitar
errores en el modelado del pedal.

Estos parámetros y variables fueron seleccionados según el reglamento FSAE 2015


para que la estructura sea capaz de soportar al menos 2000 N.

Para reducir las incertidumbres, como lo podría representar una falta de data, la
información referente a las propiedades mecánicas fueron tomadas por el trabajo de
investigación de Barroso (2015); donde el modelo estocástico desarrollado por el autor
ayudó a caracterizar el material de acuerdo a sus propiedades mecánicas. A continuación
se presenta una tabla resumen donde se muestran el valor de las medias de las
propiedades mecánicas involucradas en el diseño del pedal de freno.
Tabla 9 Resumen de propiedades mecánicas de aluminio utilizado

Deformación
Plástica Esfuerzo (MPa)
Aluminio 6063 T3 (mm/mm)
0 209,69
Relación de Poisson 0,003 215,3201145
0,33 0,006 218,8718843
Módulo de Young (MPa) 0,009 221,9132412
66,2227 0,015 227,217849
Esfuerzo de Fluencia (MPa) 0,0425 246,2395142
209,69 0,07 261,6653217
Densidad (g/cm3) 0,0975 275,3561273
2,7 0,125 287,9396233

Como antes se mencionó, las simulaciones de elemento finito se llevaron a cabo en


el programa computacional ANSYS. Para ello, se agregaron las propiedades mecánicas del
material utilizando un aluminio NL (Aluminium alloy NonLinear) como material base y con
una curva característica del material en la sección de Engineering Data.

Fig. (47) Esquema de proyecto del análisis estático estructural ANSYS


Fig. (48) Propiedades mecánicas de aluminio utilizado (Engineering Data)

Fig. (49) Curva de endurecimiento isotrópico del material utilizado en ANSYS


En la figura anterior se muestra un ejemplo ilustrativo de la curva de endurecimiento
isotrópico creada por el software ANSYS, en donde se tomó como punto de referencia el
pedal estándar utilizado para el estudio del mallado y de otros estudios que se aplicarán
más adelante.

3.1.1.2. Definición de Cargas y condiciones de borde


Debido a que el diseño no posee simetría geométrica, no se pudo utilizar la mitad
del pedal para disminuir el tiempo computacional de la simulación de esfuerzos; las
restricciones y carga aplicada son mostradas en las figuras 50 y 51.

Para la selección de condiciones de borde, se estudió el pedal aplicándole una carga


de 2000 N, debido a que como antes se mencionó, tiene que estar diseñado para soportar
al menos esa carga para que cumpla con las normas de la competencia Formula SAE. A
su vez, también se restringió el movimiento en la base y en la parte media del pedal, dónde
este es acoplado al Balance Bar (mecanismo capaz de accionar simultáneamente ambas
bombas de freno).

Fig. (50) Aplicación de carga a pedal de freno en ANSYS.


Fig. (51) Restricción de movimiento en ANSYS

3.1.1.3. Definición de Suposiciones de la simulación


Para la definición de las suposiciones de simulación se tomaron en cuenta los
siguientes casos:

 El estudio estructural en elementos finitos (FE) es estático


 No linealidades en propiedades del material (Curva de endurecimiento
Isotropico).
 Se asume al aluminio como un material homogéneo e isotrópico.
 La carga máxima es distribuida uniformemente en el área del apoya-pie, y
se asume que es aplicada gradualmente.

Con respecto a la suposición de no linealidad del material (Material Nonlinearity), se


asume afirmando que esta ocurre debido a la relación no lineal entre el esfuerzo y
deformación del material. Asumiendo esta suposición, el análisis se vuelve un poco más
complejo, ya que consume más tiempo computacional, incluso en algunas simulaciones
pueden llegar a no converger para obtener una solución.
3.1.1.4. Selección de la malla F.E.M
Éste estudio se efectuó para definir una malla de FE que ofrezca buenos resultados
del Smáx en un tiempo apropiado. Se correrán diferentes simulaciones con la configuración
estructural del pedal de freno diseñado considerando diferentes longitudes máximas de los
elementos finitos en el modelo.

La malla por defecto (Default) generada por el programa ANSYS ofrece un alto error
en el cálculo del Smáx comparado con otras configuraciones propuestas, es por ello que se
decidió realizar el estudio para la selección de la malla que se adapte mejor a las
condiciones de la investigación.

Fig. (52) Mallado generado por ANSYS


Fig. (53) Esquema de proyecto en la etapa final considerando pandeo (Buckling) en ANSYS

3.1.2. Generación de conjuntos


Para desarrollar esta metodología se describe el procedimiento para determinar las
muestras del espacio de diseño (a través del diseño de experimentos) y los valores de las
variables de salida (a través de la simulación numérica). Para la validación del metamodelo
se eligió utilizar un método de Validación cruzada que incluye el desarrollo de los conjuntos
de prueba y entrenamiento. Los conjuntos de muestra servirán para la validación de los
metamodelos de Masa, Smáx y Factor de pandeo en función de las variables de diseño.

3.1.2.1. Análisis de Sensibilidad


El primer paso para el análisis de sensibilidad Sobol’ es obtener un número mínimo
de muestras para el modelo. Esto es posible gracias al método de Aproximación de
Superficie de Respuesta (Response Surface), el cual estima o supone un modelo de
segundo orden (cuadrático) debido a su flexibilidad y fácil aplicación. En el modelo se puede
representar como “d” el número de variables, en este caso 46 variables, para estimar un
número mínimo de coeficientes. A este valor es adecuado agregarle un factor de sobre
determinación de un 20-80% cuando aplica para un modelo de segundo orden para obtener
unos resultados en el modelo considerablemente buenos, según los autores Lian y Liou
(2005). Para objeto de esta investigación se seleccionó un factor de un 20% más sobre el
número de variables mínima calculado. Considerando que se aplicará validación cruzada
para evaluar y seleccionar el metamodelo, se multiplicara el número mínimo obtenido por
el valor de 0,9 con el propósito de que cada subconjunto de muestra pueda considerar que
de cada 10 muestras, 9 sean destinadas a un conjunto de enteramiento y la restante sea
para un conjunto de prueba. Detalles del procedimiento de validación cruzada puede ser
consultado en el capítulo anterior.

(𝒅 + 𝟏)(𝒅 + 𝟐)
= 𝒏ú𝒎𝒆𝒓𝒐 𝒅𝒆 𝒄𝒐𝒆𝒇𝒊𝒄𝒊𝒆𝒏𝒕𝒆𝒔 𝒎í𝒏𝒊𝒎𝒐 Ec. (168)
𝟐

Obtenido el número mínimo de muestras para realizar el análisis de sensibilidad, se


procedió a generar el conjunto de muestras mediante el programa computacional MATLAB,
para ello las muestras se generaron utilizando el diseño experimental de hipercubo latino,
implementando el comando lhsdesign que brinda la herramienta computacional.

Posteriormente, se procedió a conducir las simulaciones con apoyo del Software


ANSYS, esto con la intención de obtener resultados para cada uno de los modelos
generados en MATLAB conociendo así, los datos de salida para cada experimento. Estos
datos se salida serán definidos posteriormente, estos datos son de gran utilidad para la
selección y generación del metamodelo.

Para la selección del metamodelo, para el análisis de sensibilidad Sobol’, se


consideró el máximo error (MAXE), el error cuadrático medio (RMSE), el coeficiente de
determinación (R2) y Tiempo. Esto arrojó resultados favorables para el metamodelo de tipo
Kriging correlación exponencial y regresión lineal para el metamodelo de Masa (m) y Kriging
correlación lineal y regresión lineal para los metamodelos de Esfuerzo (Smax) y Pandeo
(fbuck), estos presentaron un desempeño considerable con respecto al de tipo de Función de
Base Radial (RBF). También se pudo denotar que el metamodelo de tipo Regresión
Polinomial presenta gran eficiencia de los cuales los resultados serán discutidos más
adelante. Los códigos de programación en Matlab de los metamodelos pueden ser
consultados en la sección de Apéndices, así como también los detalles de la tabla de
resultados de cada tipo de metamodelo para el número mínimo de conjunto de muestras
generado.
Fig. (54) Simulaciones para los Diseños de Experimento (DOE) en ANSYS
A pesar de que en la tabla de resultados, discutida en el capítulo 4, se vean
reflejados 9 parámetros sensibles, se tomaron en cuenta para el estudio de RBDO 7
parámetros, debido a que el parámetro c23 depende directamente del parámetro d18, por
lo tanto ambos se consideran solo como una variable sensible y el parámetro del módulo
de Young se toma como constante.

En la tabla “S” es representado la desviación estándar para cada parámetro,


mientras que “GSI” representa el índice de sensibilidad Sobol’. Los parámetros fueron
estudiados de la siguiente manera:

𝑆 𝑑𝑒 𝑃𝑎𝑟á𝑚𝑒𝑡𝑟𝑜
𝑥100 = 𝐺𝑆𝐼 (𝐼𝑛𝑑𝑖𝑐𝑒 𝑑𝑒 𝑠𝑒𝑛𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑆𝑜𝑏𝑜𝑙′) Ec. (169)
∑𝑆

3.1.2.2. Definición de Variables de Entrada


Para desarrollar las simulaciones de diseño de experimentos es fundamental definir
las variables de entrada del modelo. Para la selección de ellas se debe estudiar qué
variables de entrada son responsables de cambios en la estructura al someterlas a un
estudio de elementos finitos. Para objeto del estudio, se seleccionaron los parámetros
geométricos y variables como “variables de entrada”. Estas variables seleccionadas, son
las responsables de los efectos causados en el modelo, es decir, cada cambio que se
realice a esta variables serán reflejadas directamente en las “variables de efecto”, que en
este caso son representadas por las variables de salida.

3.1.2.3. Definición de Variables de salida


Es de suma importancia también definir cuáles son las variables de salida del
modelo, ya que al simular mediante ANSYS se tienen que establecer los parámetros de
salida que arrojará el programa de simulación como resultados. Para efectos de esta
investigación, las variables de salida seleccionadas son la masa del pedal (M), el esfuerzo
máximo (Smáx) y el factor de pandeo (Fbuck).

3.1.2.4. Realización de Diseño de experimentos para cada conjunto


De acuerdo con Montgomery (2012), se puede definir un experimento como una
prueba o serie de corridas en el que se realizan los cambios intencionales a las variables
de entrada de un proceso o sistema para que podamos observar e identificar las razones
de los cambios que se pueden observar en la respuesta de salida. Es por ello que se
generaron grupos de Diseño de Experimentos con el propósito de tener variedad de grupos
para poder compararlos entre sí, mediante la selección de metamodelos.

Se aplicó el método de Aproximación de Superficie de Respuesta (Response


Surface) nuevamente con el propósito de conocer ahora el número mínimo de muestras
para el modelo considerando un valor de 9 para el parámetro “d”. Al aplicar este método se
tomó en cuenta las mismas premisas y condiciones que se mencionaron previamente. Una
vez desarrollado el método, se obtuvo el número mínimo de conjuntos de muestras para la
elaboración de los metamodelos, según la ecuación de número de coeficientes

Conocido el número mínimo de muestras, se procedió a generar el conjunto de


muestras mediante el programa computacional MATLAB, para ello las muestras se
generaron utilizando el diseño experimental de hipercubo latino, implementando el
comando lhsdesign que brinda la herramienta computacional, obteniendo 3 conjuntos que
se detallaran en el próximo capitulo

La clave para la realización de los diseño de experimentos (DOE) es como se evalúa


la calidad de tales diseños, considerando que el número de muestras es severamente
limitado por el gasto computacional para cada muestra.

Después de haber realizado el análisis de sensibilidad propuesto por Sobol’ (1990)


mediante el programa computacional Matlab 2015a, de un total de 46 variables y
parámetros se obtuvo que 9 presentaron una sensibilidad mayor a un índice de 0.05. De
estas 9, se eligieron 7 variables y 2 parámetros fijos donde un grupo de estos corresponden
a valores geométricos (8) y el otro a propiedades mecánicas (1).

Al necesitar una cantidad considerada de números aleatorios (variables y


parámetros) para la realización de las simulaciones de las muestras del metamodelo, las
muestras aleatorias de entrada de los conjuntos se generaron utilizando el diseño
experimental de hipercubo latino, implementado en el comando lhsdesign de la herramienta
computacional MATLAB. Este procedimiento muestral ha demostrado ser muy efectivo para
seleccionar valores de variables de entrada en la construcción de metamodelos según los
autores Queipo y Col. (2005).

Para evaluar los conjuntos se tomó como prioridad los factores como gasto
computacional, tiempo computacional y error de las respuestas arrojadas por cada
conjunto.
Fig. (55) Código para la generación de muestras implementando hipercubolatino mediante MATLAB

3.1.2.5. Conducir Simulaciones


Una vez obtenido los grupos de diseños de experimentos, se procedió a realizar las
simulaciones de elemento finito en el programa ANSYS, para obtener los valores de salida
tal como Masa (M), Esfuerzo von Mises (Smáx) y factor de pandeo (Fbuck). Estos valores son
fundamentales para generar la matriz de estudio para la selección del mejor modelo de
pedal de freno, en donde el computador tiene un papel importante al momento de
desarrollar los modelos. El tiempo y gasto computacional depende de varios factores tales
como el mallado, eficiencia de la máquina, numero de simulaciones a realizar, entre otros.
En el caso de la presente investigación, las simulaciones se realizaron en un computador
que presenta un procesador CORE i7 INTEL y 16 Gb de memoria RAM.
3.1.3. Selección de metamodelos
Una vez obtenida la data proporcionada ANSYS, se procedió a realizar la selección
de metamodelos (masa, esfuerzo y pandeo). Los conjuntos de 200, 600 y 1000 fueron
evaluados en el programa computacional MATLAB. Para la selección de los metamodelos,
se consideró el máximo error (MAXE), el error cuadrático medio (RMSE) y el coeficiente de
determinación (R2), así como también sus respectivos errores y desviación porcentual.
Estos fueron vinculados al gasto computacional, tiempo y eficiencia para su correcta
selección. Los metamodelos a estudiar fueron los de tipo Kriging (KG), Regresión
Polinomial (PR) y Función de Base Radial (RBF), estos últimos destacan con respecto a
otros tipos de metamodelos gracias a su simplicidad y eficacia. Para conocer los códigos
de programación implementados en el programa computacional MATLAB consultar en La
sección de apéndices. De esta manera, se elaboró una tabla resumen con los conjuntos de
que presentaron mejor rendimiento con respecto a los otros estudiados para la selección
de los modelos sustitutos (masa, esfuerzo y pandeo). Esta tabla será presentada en la
discusión de los resultados en el capítulo IV. Las tablas con el desempeño detallado de
cada tipo de metamodelo puede ser consultado en la sección de apéndices.

3.1.3.1. Construcción de metamodelos / Puntos de muestra


Como se mencionó en el Capítulo II, existen dos tipos de alternativas para la
construcción de metamodelos, tanto paramétricos como no paramétricos. Se estudiaron
tres tipos de metamodelos (RBF, Kriging y PR) donde el menos eficiente resulto el de tipo
función de base radial (RBF). Para la construcción del desarrollo del metamodelo se utilizó
el programa MATLAB R15a. La idea básica de utilizar estos tres métodos es estimar un
modelo sustituto de Masa, esfuerzo y pandeo. Los códigos de programación para la
construcción de metamodelos pueden ser consultados en la sección de apéndices.

3.1.3.2. Evaluación de metamodelos / Desempeño y eficiencia


Las medidas de rendimiento utilizados a los metamodelos fueron las siguientes:

 MAXE – Maximo Error Absoluto

𝑀𝐴𝐸 = max(|𝑦𝑖 − 𝑦̂𝑖 |) Ec. (170)


 RMSE – Error Cuadrático Medio

∑𝑛 (𝑦𝑖 − 𝑦̂𝑖 )2
𝑅𝑀𝑆𝐸 = √ 𝑖=1 Ec. (171)
𝑛
 R2 – Coeficiente de determinación

∑𝑛𝑖=1(𝑦𝑖 − 𝑦̂𝑖 )2
𝑅2 = 1 − Ec. (172)
∑𝑛𝑖=1(𝑦𝑖 − 𝑦̅)2

3.1.4. Cálculo de error en metamodelos seleccionados (Masa, Smax,


Fbuck)
3.1.4.1. Cálculo de Media y desviación estándar del error
Para el cálculo de errores considerando media y desviación estándar se tienen las
siguientes ecuaciones aplicadas al modelo:

yi − ŷi
εrri = Ec. (173)
ŷi

𝒀𝒔𝒖𝒓𝒓
𝑌= Ec. (174)
(1 − 𝑓(𝜀))

Donde εrri representa el error puntual del resultado de metamodelos, ŷi es


representado por el valor estimado del metamodelo y yi es el valor simulado Ec. (173).

Así mismo, en la Ec. (174) 𝑌 representa la distribución aleatoria de la variable de


salida, 𝒀𝒔𝒖𝒓𝒓 es la distribución aleatoria de la variable aleatoria de salida predicha por el
modelo sustituto y 𝑓(𝜀) es la distribución aleatoria del error en la predicción del metamodelo.

3.1.5. Selección del nivel de seguridad objetivo (Target Safety Level)


De acuerdo con Wang y col. (2009), el modo de fallo y análisis de efectos (FMEA -
Failure mode and effects analysis) se ha utilizado ampliamente para el estudio de los
posibles fallos en productos, procesos, diseños y servicios. Un tema importante de FMEA
es la determinación de las prioridades de riesgo de los modos de fallo que se han
identificado.

El FMEA es una técnica de ingeniería ampliamente utilizada para la definición,


identificación y eliminación / posibles fallos, problemas, errores conocidos y así
sucesivamente a partir de sistemas, diseño, proceso y / o servicios antes de que lleguen al
cliente.
Un modo de fallo en un componente puede ser la causa de un modo de fallo en otro
componente. El fallo se define como una debilidad de diseño que puede dar lugar a un
fracaso o quiebre. Para cada modo de fallo identificado, sus efectos finales necesitan ser
determinados, por lo general por un equipo FMEA. Un efecto de fallo se define como el
resultado de un modo de fallo en la función del producto / proceso como es percibido por el
cliente.

Un sistema, diseño, proceso o servicio por lo general puede tener múltiples modos
de fallo o causas y efectos. En esta situación, cada modo de falla o causa necesita ser
evaluado y priorizado en función de sus riesgos de manera que los modos de fallo de riesgo
alto (o más peligroso) pueden ser corregidos con la máxima prioridad.

FMEA demuestra ser una de las acciones preventivas más importantes en el


sistema, diseño, proceso o servicio que eviten fallos y errores que se produzcan.

En la tabla siguiente se muestra las calificaciones de que aparezca un fallo en una


estructura tomando como referencia la probabilidad de ocurrencia del fallo.

Fig. (56) Calificación de ocurrencia de probabilidad de fallo.


Fuente: Wang y col. (2009)

Así mismo mediante esta metodología se tiene una tabla en la cual detalla la
severidad de probabilidad de fallo en la cual se ordena de la más severa a la menor.
Fig. (57) Calificación de severidad de probabilidad de fallo.
Fuente: Wang y col. (2009)

Obtenidas las dos figuras por el método FMEA, el autor Goh (2009) pudo elaborar
una figura resumen en la cual se puede comparar la probabilidad de fallo y la severidad del
diseño. En esta tabla se pueden obtener resultados que destaquen un diseño aceptable,
conservador o sobre diseñado.
Fig. (58) Resumen FMEA para probabilidad de fallo en diseño de estructuras.
Fuente: Goh (2009).

Por lo tanto, la selección de la probabilidad para el diseño óptimo del pedal de freno
fue basada en la tabla anterior para considerar un buen diseño, que en este caso, un diseño
con severidad moderada.
3.1.6. Selección métodos de análisis de confiabilidad (FORM, SORM,
MCS)
Para la selección de los métodos de análisis de confiabilidad se estudiaron tres
métodos First Order Reliability Method (FORM), Second Order Reliability Method (SORM),
simulación de Monte Carlo (MCS). Estos métodos fueron seleccionados debido a su
eficiencia y bajo error que presentan al arrojar las respuestas de un modelo en específico.
Para ello se consideró el gasto y tiempo computacional. Los códigos de programación de
cada método de confiabilidad se pueden consultar en la sección de apéndices. Estos
métodos de confiabilidad fueron aplicados al pedal de freno con unos parámetros
geométricos estándares, es decir, el modelo presentado sin variar algún parámetro o
variable de diseño. Esto para conocer el comportamiento de cada uno de los métodos de
confiabilidad y estudiar su eficiencia en el modelo.

Existen una gran variedad de métodos de RBDO, sin embargo no todos son
eficientes y comúnmente utilizados a nivel global. Para esto se tomó como referencia la
tabla en la sección de apéndices, en la cual detalla los trabajos e investigaciones de
diferentes autores al analizar diferentes estructuras con una gama de métodos de análisis
de confiabilidad. En la tabla elaborada se denota que uno de los métodos más utilizados y
efectivos fue el de Monter Carlo (MCS).

Citando de nuevo a Lian y Kim (2006) como recordatorio importante del concepto
del MCS tenemos que la precisión de la simulación de Monte Carlo depende altamente del
número de simulaciones, donde su aceptación como método de confiabilidad depende
principalmente de su eficiencia y precisión, en general, la estimación de la precisión de
falla depende de la probabilidad de falla determinada y del número de simulaciones.

3.1.6.1. Aplicación de métodos a modelo geométrico inicial


Con el objetivo de comparar entre si los métodos de confiabilidad para conocer el
más factible, se procedió a aplicar cada método al pedal geométrico con los paramétricos
geométricos por default, es decir, sin ningún tipo de variantes en la geometría inicial. Esto
logrará obtener el método de confiabilidad más confiable y eficaz para desarrollar los
metamodelos de masa, esfuerzo y pandeo. De esta manera, se procederá a buscar el
diseño más óptimo basado en confiabilidad del pedal de freno. Esta selección del método
de confiabilidad más óptimo se realiza al cotejar los errores de medida arrojados por cada
método.
3.1.7. Diseño Óptimo Basado en Confiabilidad (RBDO)
En RBDO, los aspectos estadísticos de los parámetros aleatorios son definidos en
términos de restricciones de probabilidad, en donde un ingeniero puede especificar el nivel
deseado de confiabilidad. Adicionalmente parámetros de optimización tales como función
objetivo, variables de diseño, restricciones determinísticas, tanto como parámetros de
confiabilidad tal como funciones de estado límites y variables aleatorias deben ser
declarados.

3.1.7.1. Formulación del Problema


El problema de RBDO (Reliability Based-Design Optimization) es formulado de la
siguiente manera para nuestro modelo:

Función Objetivo
𝑚𝑖𝑛
𝑍 = 𝑚(𝜇𝑥 , 𝜇𝑝 )
𝜇𝑠

Sujeto a (Restricción):

𝑃[𝐺1 (𝒙, 𝒑) ≤ 0] ≤ 𝑃𝑓

𝑃[𝐺2 (𝒙, 𝒑) ≤ 0] ≤ 𝑃𝑓

Limites
xL ≤ x ≤ xU

Donde:

𝝁𝒙 : es el vector de medias de 𝒙

𝐺1 : Función de desempeño

𝑃𝑓 : Probabilidad de falla

𝐺1 : Función de desempeño para la fluencia a la fatiga

𝐺2 : Función de desempeño para el pandeo


3.1.7.2. Aplicación de Algoritmo de optimización
Se seleccionara el algoritmo de optimización basado en gradiente ya que ofrece una
metodología que se puede ajustar a nuestras necesidades, además su tiempo puede
determinarse fácilmente dependiendo de las configuraciones de la programación. Por otro
lado el método de DIRECT presenta un mejor desempeño, pero al momento de elegir el
modelo más óptimo el tiempo estimado es incierto.

Fig. (59) Diagrama de flujo para el RBDO


CAPITULO IV: RESULTADOS
4.1. DEFINIR MODELO NUMERICO
El diseño acotado geométricamente se presentó en el capítulo III, contando con una
cantidad de 18 variables y 24 parámetros, cuyos límites de tolerancia también fueron
definidos. Gracias a la investigación realizada por Barroso (2015) se lograron obtener
propiedades mecánicas del aluminio 6063 T5 logrando conocer una gran cantidad de
incertidumbres que caracterizan al material, importantes para poder abordar el problema de
optimización

4.1.1. Selección de mallado para pedal de freno


Como resultado de analizar la Tabla 10 se decidió utilizar la opción Sizing que ofrece
el programa computacional ANSYS para el mallado, seteando con 3 mm la longitud
máxima entre los elementos del mallado, ya que ofrece un tiempo computacional
aproximado de 80 segundos por corrida en un computador i7 con 16 GB de memoria RAM.
La selección del mismo se basó considerando la relación entre eficacia del mallado y el
tiempo computacional como principales factores, otro factor que se consideró fue la
cantidad considerada de pedales con diferentes configuraciones que se debían simular,
logrando que se obtuvieran 100 pedales con un tiempo de 3 horas aproximadamente.
Tabla 10 Selección de malla para el pedal de freno tipo FSAE.

Smáx Factor de carga crítica por pandeo


Tiempo
Longitud máxima Tiempo Total
Numero de Número de Tiempo
de elementos Valor (Mpa) Error % Computacional Valor Error %
Nodos elementos Computacional (s)
(Sizing) (s)
Default 641 2897 1.5427 7.0663% 10.578 0.75171 33.4215% 4.734 15.312
20 mm 2699 1319 1.3927 16.1024% 4.031 1.3404 137.9085% 2.734 6.765
15 mm 3156 1497 1.4564 12.2651% 3.969 1.0269 82.2651% 2.938 6.907
10 mm 4581 2185 1.4756 11.1084% 8.438 0.77174 36.9766% 3.641 12.079
8 mm 6196 2953 1.5378 7.3614% 10.312 0.69728 23.7607% 4.609 14.921
6 mm 9851 4840 1.5828 4.6506% 21.016 0.63559 12.8113% 6.797 27.813
4 mm 20277 10457 1.5649 5.7289% 32.078 0.5969 5.9442% 12.703 44.781
3 mm 37764 20453 1.5830 4.6386% 56.453 0.58439 3.7238% 23.750 80.203
2 mm 108526 64402 1.5806 4.7831% 146.578 0.57022 1.2087% 90.406 236.984
1 mm 729604 481369 1.6600 0.0000% 1134.938 0.56341 0.0000% 3157.812 4292.750
4.2. ANALISIS DE SENSIBILIDAD POR SOBOL’
4.2.1. Calculo de coeficientes mínimos
Con la finalidad de obtener el número de coeficientes necesarios para aplicar en un
principio el análisis de sensibilidad de Sobol’, se empleó la ecuación planteada en el
CAPITULO III, donde se usó como 𝑑 = 46 en la Ec. (168), obteniendo lo siguiente

(46 + 1)(46 + 2)
= 1128
2

De esta manera se obtiene el número mínimo de coeficiente que se deben simular,


ahora se procede a agregarle el factor de sobre dimensionamiento

1128 + (1128 ∗ 0.2) ≅ 1354

Por último se divide el valor obtenido entre 0,9 ya que se escogió como método de
validación de metamodelos la validación cruzada.

1354
= 1504,44 ≈ 1510
0,9

Realizado el método de aproximación de superficie, se necesitaron un total de 1510


coeficientes mínimos para aplicar el método de Sobol’ mediante el método de
aproximación de superficie de respuesta explicado en el CAPITULO II.

4.2.2. Análisis de Sensibilidad Sobol’


Obtenido el GSI para cada parámetro se comparó directamente con el valor de 0,5%
que fue impuesto para objetivos en esta investigación, en donde los parámetros que
estuviesen por encima de este, serían considerados como variables sensibles para nuestro
modelo. A continuación se muestra una tabla en donde se evalúa cada parámetro de diseño
donde destacan la varianza “S” y el índice GSI.
Tabla 11 Implementación de análisis de sensibilidad.
Al haber generado 1510 experimentos mediante el método de muestreo de
hipercubo latino y realizando la simulación numérica mediante ANSYS, se procedió a
escoger el mejor metamodelo utilizando validación cruzada que se aplicaría para el análisis
de Sobol’.

Tabla 12 Selección del mejor metamodelo para análisis Sobol’

Surrogate M Smax fbuck


model MAXE% RMSE% R2 tf (s) MAXE% RMSE% R2 tf (s) MAXE% RMSE% R2 tf (s)

KRG_L1 2,3816 0,5254 0,9995 3104,11 39,3316 8,6537 0,9592 3069,335 22,1382 4,6785 0,9967 2617,267

Se escogió finalmente el Metamodelo de Kriging de función con correlación lineal y


función regresión lineal, debido a que en comparación a los otros, obtuvieron menores
MAXE, RMSE y el R2 más cercano a 1 primordiales para el desempeño, precisión y
confiabilidad del análisis de Sobol’ correspondiente.

Analizando las varianzas y sus respectivos GSI arrojados por Matlab del análisis de
sensibilidad Sobol’ y considerando la premisa que se tomaran las variables y parámetros
con GSI mayor a 0,5%, se obtuvieron un total de 9 variables y parámetros sensibles al
cambio de masa, esfuerzo y pandeo del pedal.

Tabla 13 Variables seleccionadas en análisis de sensibilidad.

Variable seleccionadas con un GSI% mayor al valor límite establecido de 0,5%


Masa Esfuerzo Pandeo
S GSI S GSI S GSI
d1 38,730 1,526 83,310 4,211 0,252 0,418
d2 36,041 1,420 6,377 0,322 0,296 0,490
d3 62,087 2,446 14,117 0,714 0,518 0,857
d5 20,608 0,812 5,898 0,298 0,107 0,178
d11 4,401 0,173 41,961 2,121 0,109 0,181
d12 26,844 1,058 59,327 2,999 0,883 1,461
d18 1086,148 42,791 836,949 42,301 26,659 44,118
c23 1078,165 42,476 710,019 35,886 28,430 47,048
E 4,428 0,174 6,203 0,314 1,180 1,953

Revisando los planos acotados del pedal de freno, se trató de predecir en primera
instancia cuales parámetros y variables generan un cambio significativo en las variables de
salidas. Una vez culminado el análisis de sensibilidad propuesto por Sobol’ se puede
reafirmar que los resultados del análisis de sensibilidad son acordes con lo supuesto. Sin
embargo, se había asumido que Sy, K y n entrarían como variables sensibles por su
influencia directa en variables de Smax y fbuck. Con estas observaciones se puede confirmar
la importancia de la implementación de un análisis de sensibilidad para una definición
confiable de las variables y parámetros de entrada de un modelo.

4.3. ANALISIS DE CONFIABILIDAD


En la siguiente sección se mostrarán los resultados correspondientes al desempeño
de los metamodelos, con la probabilidad de falla seleccionada se escogerá el mejor método
para el análisis de confiabilidad.

4.3.1. Calculo de coeficientes mínimos


Una vez definido las variables y parámetros sensibles definitivos, se condujo
nuevamente a la realización del cálculo de un conjunto de muestras mínimos para
desarrollar los metamodelos definitivos a utilizar en el análisis de confiabilidad.

Para la selección correcta de los metamodelos es necesario estimar el número


mínimo de muestras (diseño de experimentos) utilizando un valor de 9 (en este caso las
variables sensibles) para el parámetro “d”, para ello se aplica la Ec. (168) de la siguiente
manera:

(9 + 1)(9 + 2)
= 55
2

De esta manera se obtiene el número mínimo de coeficiente, ahora se procede a


agregarle el factor de sobre dimensionamiento

55 + (55 ∗ 0.2) = 66

Por último se divide el valor obtenido entre 0,9 con objeto de conducir la validación
cruzada

66
= 73,33 ≈ 200
0,9

Se estableció el valor mínimo de 200 muestras con la finalidad de considerar más


puntos de estudios para obtener un modelo más preciso y que tuviera mayor información al
momento de desarrollar los modelos sustitutos correspondientes. Esto es debido a que el
nivel de incertidumbre varía dependiendo del tamaño de la data de muestreo para
determinar ciertos parámetros. Por lo tanto, la incertidumbre puede ser reducida
simplemente al usar número de conjunto de muestras más grandes (Kusano, 2015).

Definido el número mínimo de muestras, se procedió establecer tres conjuntos de


muestras para comparar el desempeño de los mismos en la siguiente tabla. Estos 3
conjuntos cuentan con 200,600 y 1000 experimentos a simular respectivamente.
4.3.2. Selección de Metamodelos para RBDO
Tabla 14 Resumen de Selección de metamodelos según el mejor desempeño
Para la selección del tipo de metamodelo con mejor desempeño se compararon tres
métodos: Kriging (con sus variaciones), Regresión Polinomial (PR) y Funciona de Base
Radial (RBF).

Tabla 15 Modelos sustitutos seleccionados para el pedal de freno.

Variable Número Desviación


Tiempo
de Metamodelo Descripción de MAXE RMSE R2 Media Estándar
(Seg.)
Salida muestras (Std)
Regresión -1.13E-
Masa Cuadrática 1000 3.2629 0.4602 0.9988 0.012 0.864
Polinomial 04

Regresión
Esfuerzo Cuadrática 1000 25.6356 6.3018 0.9768 -0.0015 0.0657 0.825
Polinomial

Regresión
Pandeo Cuadrática 1000 10,931 2,966 0,998 0,9970 0,0010 0,1257
Polinomial

Se seleccionó el método de Regresión Polinomial Cuadrática para los tres


metamodelos (Masa, Esfuerzo y Pandeo). Como se muestra en la tabla el desempeño de
los metamodelos resultó bastante bueno, debido a que el tiempo computacional es bastante
bajo y el coeficiente de determinación (R2) se acerca a la unidad. Este comportamiento
destaca sobre los modelos de Kriging, ya que estos a pesar de desempeñarse bien en
errores de medida consumían mucho tiempo computacional por lo cual en líneas generales
no resultaron tan favorables para la investigación como los modelos de Regresión
Polinomial.

A través de la herramienta MATLAB se obtuvieron las representaciones gráficas de


las funciones de distribución probabilísticas (Normal) para cada metamodelo de estudio
(Masa, Esfuerzo y Pandeo). En las siguentes figuras se exhiben las funciones de
distribución de probabilidad para los metamodelos de interés.
a)

b)

c)
Fig. (60) Función de distribución probabilística
a) Masa
b) Esfuerzo
c) Pandeo
Realizando una comparación entre las tres funciones graficadas para las variables
de estudio se aprecia que las funciones muestran una buena tendencia sobre el parámetro
de medición.

4.3.3. Error, Media y desviación estándar de metamodelos


Tomado en cuenta los errores y el tiempo computacional consumido, se determinó
que el metamodelo más conveniente para la investigación fue el de Regresión Polinomial
cuadrática de conjunto de 1000 muestras para todos los casos (Masa, Esfuerzo von Mises
y Pandeo) por su gran comportamiento eficiente en el modelo de pedal de freno.

4.3.4. Nivel de seguridad objetivo (Target Safety level)


Para la selección de la probabilidad de fallo Pf, se tomó como referencia los
antecedentes referentes a métodos de confiabilidad y trabajos RBDO ubicados en los
apéndices A-7 y A-8 para estimar una probabilidad de fallo que se ajuste a un diseño de un
pedal de freno competitivo. Se tomó el valor de Pf=0.001 (=3.01) como la máxima
probabilidad de fallo para un diseño estructural aceptable y severidad media según Goh,
(2009), consultado en la Fig. (58) del capítulo III. De acuerdo con la norma ISO 2394 (1998)
para costos relativos moderados de medidas de seguridad y consecuencias del fallo.

Como para el problema de análisis de confiabilidad planteado se desea una


probabilidad de fallo de 10-4, utilizando la Ec. (120) estimamos que el porcentaje de error
es 20% para un número de 105 simulaciones, y un error de 6,32% para 106 simulaciones.

4.3.5. Aplicación de métodos de confiabilidad a geometría inicial


Desde que se consideraron 3 métodos de confiabilidad para el modelo de pedal de
freno, se seleccionó un método que destacara entre los demás, se trabajaron con los
métodos de momentos de FORM y SORM y el método de muestreo de Monte Carlo que
realiza 105 y 106 simulaciones. Este método fue el método de confiabilidad de Monte Carlo
(MCS) debido a que es relativamente simple y tiene capacidad de versatilidad para resolver
diferentes tipos de modelo, el código de programación en MATLAB puede ser consultado
en la sección de apéndices.
Tabla 16 Análisis de confiabilidad utilizando FORM, SORM y FORM

Función FORM SORM MCS MCS


Limite (Hohenbichler,1987) 105 muestras 106 Muestras
Pf tf (s) Pf tf (s) Pf tf(s) Pf tf (s)
G1(x,p1) 6,13e-06 2,1909 2,64e-06 4,9806 2,00e-5 0,0390 2,00e-06 0,5111
G2(x,p2) 0,04099 2,9354 0,03090 4,8398 0,04119 0,0431 0,039955 0,5217

Al analizar la Tabla 16, observamos que al aplicar los métodos de confiabilidad al


modelo, el método de Monte Carlo presenta un muy buen desempeño, debido a su
versatilidad de trabajar con modelos altamente no lineales. El tiempo computacional
consumido y la probabilidad de fallo de este método mostraron un mejor rendimiento en
comparación entre los otros dos métodos restantes.

Este resultado difiere generalmente con lo que indica el autor Kusano (2015), que
indica que el método FORM es el computacionalmente más eficiente. Esto es debido a que,
en nuestro caso, el metamodelo de regresión Polinomial cuadrática seleccionado para los
tres metamodelos presenta una gran eficiencia en cuanto al tiempo computacional
consumido. Es por ello que los tres métodos de análisis de confiabilidad seleccionados
presentan casi el mismo rendimiento en cuanto a tiempo se refiere.

4.4. Reliability-Based Design Optimization (RBDO)


4.4.1. Definición de Pf para problema RBDO
La restricción probabilística 𝑃[𝐺1 (𝒙, 𝒑) ≤ 0] ≤ 𝑃𝑓 indica que la probabilidad de fallo
estructural debido al pandeo y a fluencia debe ser menor a 0,001 como Pf. Para esto se
calculó las probabilidades de fallo mediante el método de Monte Carlo (MCS) ya que ha
demostrado ser el método de cálculo más preciso.

4.4.2. Selección del algoritmo de Optimización


Se seleccionó el algoritmo de optimización basado en gradiente con los
siguientes parámetros en la programación

%RBDO.m
%Utilización de fmincon para optimizar de manera global

clc
clear all

global PObj NI D tol E_005


NN=100;%numero de iniciaciones
%% Datos del problema
PObj=0.001; %Probability of failure target
SY_005=194.883; %Límite de fluencia alfa=0,005
E_005=55805.866; %Modulo de elásticidad alfa=0,005
NI=1e5;
%%
options=optimset('Display','iter','MaxIter',400,'TolFun',1e-4,...
'TolX',1e-4,'MaxFunEvals',1500, 'Algorithm', 'active-set');

load datosD
load tolerancia

NV=7; %número de variables de diseño


VD=D(1:NV,:)-tol(1:NV,:);

lb=VD(:,1)';
ub=VD(:,2)';

tic
ii=0;
A=lhsdesign(NN,7,'criterion','maximin','criterion','correlation');
for i=1:NN
i
ii=ii+1;
xoa=A(i,:);
x0=xoa.*(ub-lb)+lb
[xx,fval,exitflag]=fmincon(@fObj,x0,[],[],[],[],lb,ub,@MCS,options);

if exitflag==-2 || exitflag==0
ii=ii-1;
else
xi(ii,:)=xx;
fvali(ii)=fval;
end
end

tf=toc
nmin=find(fvali==min(fvali));
%% Resultados
fmin=fvali(nmin)
xmin=xi(nmin,:)
x=variable_f(xmin);

load Masa1000_RQ
masa=preregress(x,B)
load Esfuerzo1000_RQ
Esfuerzo=preregress(x,B)

load Pandeo1000_RQ
FPandeo=preregress(x,B)

[Mediam,Desvm]=Masa2(xmin)
PF=Probabilidad(xmin)

%save Result_RBDO xmin tf Mediam Desvm PF fvali

figure(3)
plot(fvali)
Fig. (61) Parte de la programación de RBDO

4.4.3. Selección del número de inicializaciones


Como el método basado en gradiente posee fluctuaciones al calcular los valores de
la función objetivo a la hora de determinar el pedal más óptimo, se definieron 5 grupos de
numero de inicializaciones, es decir, 20, 40, 60, 80 y 100 respectivamente, en el cual cada
grupo debió tener una cantidad de 10 corridas, se debe acotar que se trabajó con un numero
de 105 simulaciones para ahorrar tiempo computacional. El objetivo de esta metodología
empleada buscaba evaluar la dispersión de los valores de la función objetiva para cada
grupo. En la siguiente figura se muestra un diagrama de caja que muestra el
comportamiento estadístico de los grupos estudiados, la misma fue realizada mediante el
programa computacional Matlab 2015a.

Fig. (62) Diagrama de Caja

Se escogió al grupo 5 (100 inicializaciones) ya que presenta la menor mediana de


los grupos estudiados, posee la menor varianza, menos sensibilidad y a su vez la menor
incertidumbre. El detalle de los grupos con sus corridas puede ser consultado en la sección
de apéndice, A-9.
4.4.4. Resultados para el RBDO
Realizando las optimizaciones utilizando el Monte Carlo con 106 simulaciones como
método de análisis de confiabilidad y como método de optimización basado en gradiente se
obtuvieron los siguientes resultados.

Fig. (63) Comportamiento de la función objetivo durante el número de inicializaciones


Tabla 17 Resultados del RBDO

RBDO
Monte Carlo con algoritmo de optimización basado en Gradiente

105 106
Masa (gr) 145,846886 Masa (gr) 145,462562
d1 27,9600189 d1 27,8992966
d2 79,5281476 d2 80
d3 70,3733526 d3 70
d5 2,47856874 d5 2,0523317
d11 8,88156403 d11 8,01323701
d12 95,9733631 d12 110,1592
d18 2,62716324 d18 2,90030714
Tiempo 8124,502 Tiempo 92039,309
Esfuerzo 166,98775 Esfuerzo 173,777648
Fpandeo 2,18508324 Fpandeo 2,22887486
Mediam 140,523918 Mediam 141,118666
Media Error 0,0010321 Media Error 0,0010321
Desvm 4,197867 Desvm 4,0133483
Desv Error 0,12565934 Desv Error 0,12565934
Pf1 0,00011 Pf1 0,00077
Pf2 0,00123 Pf2 0,00102

Para la probabilidad de falla por fatiga se obtuvo un valor 0,00077, resultando una
confiabilidad de la geometría del pedal por fatiga de un 99,923% y para la probabilidad de
falla por pandeo se tuvo un 0,00102, rectificando que para un número total de simulaciones
mayor 105 se tiene un alrededor de un 20% de error en la precisión del análisis en la
confiabilidad, este error también se debe a la desviación que se arrastraba en el
metamodelo seleccionado.

Así mismo, se comprobó con la tabla anterior que en el método de Monte Carlo
(MCS) mientras se incrementa el número de muestras o simulaciones el resultado será más
óptimo y preciso. Se puede observar al analizar los valores de desviación en donde mejora
sin duda alguna en las simulaciones desarrolladas para 106 muestras, que a su vez este
modelo resulto más ligero que el del grupo de 105.
Fig. (64) Solape de curvas (PDF) del modelo y el material del pedal de freno.

Fig. (65)
Comparando los pedales existentes, el pedal realizado por Martínez y Clara (2012)
tuvo una masa de 220,62g, logrando así reducir un 34,06% de la masa del pedal diseñado
por los autores citados anteriormente.

También se puede establecer una gran mejora en el diseño (masa) respecto al


trabajo realizado por los autores Abreu y Fuenmayor (2015) donde se obtuvo un diseño de
un pedal de freno utilizando un método determinístico con una masa de 170 gr. En este
caso se pudo lograr una mejoría de un 14.44 % en reducción de peso respecto a ese pedal,
confirmando que un diseño probabilista logra desarrollar un modelo más óptimo que uno
determinista convencional.

Al obtener un modelo de pedal de freno fiable de soportar el fenómeno de fatiga y


pandeo con un peso menor a 150 gr, podemos destacar el buen resultado y desempeño
que arrojan los métodos de análisis probabilísticos, debido a que considerando una gran
cantidad de incertidumbres, el investigador asegura de que el modelo diseñado es el más
óptimo comparado con los diseños deterministas que a pesar que se logren bajar de peso
(función objetivo) estos tienen una cierta probabilidad de fallar mediante fenómenos
estructurales no considerados en la fase de diseño.
CONCLUSIONES
 Se comprobó que las altas no linealidades que afectan al pandeo influyeron
en la precisión y desempeño del metamodelo, disparando un poco los
errores del mismo.
 La utilización de un análisis previo de sensibilidad simplifica en gran medida
el análisis de un modelo de estudio al solo incluir las variables sensibles del
modelo, logrando así un ahorro significante en el tiempo computacional al
momento de abordar las simulaciones.
 El método de Monte Carlo es más eficiente y efectivo cuando involucre un
mayor número de muestras en la simulación.
 El método de Monte Carlo resultó más eficiente con respecto al tiempo en el
análisis de confiabilidad, a pesar de la data compilada que apunta los
métodos de momento FORM y SORM tienen un mejor rendimiento, esta
diferencia se debe a los metamodelos de regresión polinomial cuadrática
seleccionados por su rapidez y un desempeño aceptable.
 Se verificó que el método de Monte Carlo puede ser tan eficiente como el
FORM Y SORM en los análisis de confiabilidad, siempre y cuando estos
involucren un metamodelo eficiente como el de Regresión Polinomial,
además el rendimiento del Monte Carlo no depende de las no linealidades
del sistema.
 La optimización probabilista proporciona diseños más competitivos que la
optimización convencional determinista debido a que involucra las
incertidumbres que tiene cada parámetro afectando la respuesta estructural.
 El refinamiento del mallado para análisis de elementos finitos en un modelo
es importante para determinar el alcance de la investigación, mientras más
fino es este, más preciso será pero con la desventaja del aumento del
consumo computacional.
 El tiempo de computación para resolver el problema de optimización
probabilista depende del método de RBDO utilizado.
RECOMENDACIONES
 Realizar una investigación referente a la desarrollada con un alcance mayor,
en la cual se involucren variedades de métodos de confiabilidad con la
finalidad de comparar el desempeño de los mismos.
 Utilizar otra herramienta computacional para el estudio del pandeo no lineal
debido a los comportamientos que presenta el software ANSYS en esta
investigación.
 Aumentar el número de diseño de experimentos para lograr disminuir los
errores en los metamodelos
 Realizar el RBDO mediante el algoritmo de optimización DIRECT para luego
compararlos con el algoritmo basado en gradiente con el fin de evaluar su
rendimiento.
 Desarrollar una futura investigación con un computador de mayor
desempeño para comparar el consumo y tiempo computacional.