Académique Documents
Professionnel Documents
Culture Documents
Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) están inspiradas en las redes
neuronales biológicas del cerebro humano.
Las ANN al margen de "parecerse" al cerebro presentan una serie de características propias del
cerebro. Por ejemplo las ANN aprenden de la experiencia, generalizan de ejemplos previos a
ejemplos nuevos y abstraen las características principales de una serie de datos.
Redes Neuronales Artificiales.-En las Redes Neuronales Artificiales, ANN, la unidad análoga a la neurona biológica es el
elemento procesador, PE (process element). Un elemento procesador tiene varias entradas y las combina, normalmente con
una suma básica. La suma de las entradas es modificada por una función de transferencia y el valor de la salida de esta
función de transferencia se pasa directamente a la salida del elemento procesador.
La salida del PE se puede conectar a las entradas de otras neuronas artificiales (PE) mediante conexiones ponderadas
correspondientes a la eficacia de la sinapsis de las conexiones neuronales.
Una red neuronal consiste en un conjunto de unidades elementales PE conectadas de una forma concreta. El interés de las
ANN no reside solamente en el modelo del elemento PE sino en las formas en que se conectan estos elementos
procesadores. Generalmente los elementos PE están organizados en grupos llamados niveles o capas. Una red típica
consiste en una secuencia de capas con conexiones entre capas adyacentes consecutivas.
Existen dos capas con conexiones con el mundo exterior. Una capa de entrada, buffer de entrada, donde se presentan los
datos a la red, y una capa buffer de salida que mantiene la respuesta de la red a una entrada. El resto de las capas reciben
el nombre de capas ocultas.
HISTORIA DE LA COMPUTACIÓN NEURONAL
1956 Rochester, Holland, entre otros, realizan pruebas sobre ensambles de células y su acción en el
cerebro.
1960 Widrow y Hopf presentan el Adaline y el aprendizaje por ajuste de mínimos cuadrados. Lo aplican
a la eliminación del eco en llamadas telefónicas y constituye la primera aplicación práctica de las
redes neuronales.
1969 Minsky y Papert analizan el preceptrón y encuentran que tiene limitaciones lógicas importantes.
Reflexión y estancamiento
1972 Kohonen presenta sus primeros trabajos sobre redes neuronales y memorias
asociativas.
1972 J.Anderson desarrolla la red neuronal llamada: “estado cerebral en una caja”.
1975 Fukushima, en los laboratorios NHK, en Tokio, desarrolla el cognitrón, una red neuronal
especializada en reconocimiento de patrones. No logra reconocer caracteres
distorsionados o rotados.
1976 Grossberg, en la Universidad de Boston, inicia sus trabajos sobre redes neuronales
artificiales. Se distingue por su carácter altamente matemático y con sentido biológico.
1982 Kohonen presenta la red que ahora se llama mapeo autoorganizado (SOM por su nombre
en inglés).
La década de oro de las redes
neuronales
1982-1985 J. Hopfield presenta la red de aprendizaje mediante la regla de Hebb. Utiliza técnicas
de la Física Estadística para demostrar que tiene propiedades de memoria asociativa.
Gran impacto en el mundo de los físicos.
1984 Ackley, Hinton y Sejnoski desarrollan la máquina de Boltzmann. Una red neuronal
1985 Se establece el sistema de propagación hacia atrás, que había aparecido para ser olvidado en
diversas ocasiones.
2000 El paralelismo, las redes neuronales y la inteligencia articial en general, convergen en una teoría del
aprendizaje de desarrollo acelerado con aplicaciones muy diversas.
Una red neuronal es un
sistema compuesto de
muchos elementos
procesadores simples
operando en paralelo,
cuya función es
determinada por la
estructura de la red,
fuerza en las conexiones
y el procesamiento
realizado por los
elementos
computacionales en los
nodos
"Una red neuronal es un procesamiento
distribuido masivamente paralelo que tiene una
tendencia natural para almacenar conocimiento
empírico y hacerlo disponible para el uso”
Haykin, S
Una Red Neuronal viene caracterizada por:
•Topología
Clasificación de patrones
Aproximación de funciones
Mapeo
En los que exista información imprecisa y con tolerancia a fallos
Aprendizaje Adaptativo
Autoorganización
Tolerancia a Fallos
Operación en tiempo real
Fácil construcción en circuitos integrados
La entrada total de la unidad k es la suma ponderada de
las entradas que recibe más el término de offset
Este tipo de expresiones que calculan la entrada total se
denominan reglas de propagación y, en general, pueden
tener diferentes expresiones
El número de capas intermedias y el número de neuronas de
cada capa dependerá del tipo de aplicación al que se vaya a
destinar la red neuronal.
PERCEPTRON
BACKPROPAGATION
Los elementos de procesado de una red neuronal se distribuyen
por capas, existen tres tipos de capas:
Redes feedforward
Redes feedback
Redes feedlateral
Supervisado
Supongamos que vamos a entrenar una red de decisión más idóneo para
un conjunto de muestras de entrada consistentes “x” y valores de
salida deseada “d”.
Para cada muestra dada del conjunto de entrada, la salida real de la red
difiere de la salida deseada en “d-y”, donde y es la salida real de la red
correspondiente a la entrada x
La función de error, dada por el método del menor error cuadrático
medio, es la suma de los cuadrados de los errores individuales de
cada patrón. Es decir, el error total E viene dado por:
Sólo hay una capa oculta que hace que el tiempo de cálculo muy inferior. Por
otra parte, la función de transferencia de φ de la capa oculta es siempre de
tipo Gauss:
Donde P es el vector de entrada; 𝐶𝑗 y σ j son el centro y la extensión
(factor de difusión) de la función de Gauss, respectivamente.
Como se ilustra en la figura de la siguiente diapositiva una, φ ( P ) alcanza el
valor máximo (1.0) cuando P es igual a 0,0. De esta manera, cuando la
diferencia entre los valores de los pesos y las entradas es más bajo, la
salida de neurona será mayor. De hecho, aquí la cantidad de la producción
de la capa oculta muestra la diferencia absoluta entre los pesos de las
conexiones y los insumos. En la RNFBR, la j ª salida de la red d J ( Demuth
y Beale, 1994 ) se puede calcular:
Donde :
𝒚 y 𝒚′ son los valores medidos y predichos, respectivamente; 𝒚
ഥy
ഥ′ son los valores promedios medidos y promediados,
𝒚
respectivamente; 𝒗𝒂𝒓 ( ) es la varianza
MINA DE CALIZA DE TEHRAN CEMENT COMPANY
Tabla 1.
Los índices de rendimiento calculadas para modelos de red neuronal de back propagation (BPNN).
Estructura R 2 (%) Coeficiente (RMSE) Error VAF (%) Cuenta de MRE (%) Error
No.
de la malla de determinación cuadrático medio valor relativo máximo
Tabla 2.
Los índices de rendimiento calculados de los modelos de redes neuronales de funciones de base
radial (RBFNN).
Estructura R 2 (%)
Factor de (RMSE) Error VAF (%) Cuenta de MRE (%) Error
No. de la Coeficiente de
Propagación cuadrático medio valor relativo máximo
malla determinación
BB FR BB FR BB FR BB FR
La figura. 1.
La correlación de la medición y estimación de datos con la red neuronal de back propagation (BPNN).
MINA DE CALIZA DE TEHRAN CEMENT COMPANY
La figura. 2.
La correlación de la medición y estimación de datos con base radial función de red neural (RBFNN).
MINA DE CALIZA DE TEHRAN CEMENT COMPANY
• La predicción precisa de backbreak y fragmentación es muy
crucial para el éxito de un proyecto minero. En este trabajo, se
realiza un intento de utilizar diferentes tipos de ANN para predecir
la fragmentación simultánea y backbreak en la operación de
voladura de minas de piedra caliza Teherán Cement Company.
• Los modelos de ANN son capacitados utilizando una base de
datos que incluye 103 conjuntos de datos. Para lograr modelos
predictivos más confiables, los parámetros que incluyen al burden,
el espaciamiento, taco, altura del banco, carga específica y
perforación específica son considerados como los datos del
modelo para predecir las salidas fragmentación y backbreak.
• BPNN y RBFNN se adoptan para este estudio. Además, se realizó
un análisis de regresión entre las mismas variables independientes
y dependientes. Para el modelado BPNN y RBFNN, Las redes con
arquitecturas 6-10-2 y 6-36-2, respectivamente son óptimas. La
eficiencia de los modelos desarrollados se examinó utilizando
conjuntos de datos de prueba.
• Los índices de VAF , RMSE , R 2 y MRE se calculan para las salidas
previstas y se comparan con los resultados reales. Se ha
encontrado que el rendimiento del modelo de BPNN con la
máxima precisión y error mínimo es mejor que el modelo RBFNN.
• Se recomienda que los modelos híbridos, combinación de la
CONCLUSIONES Y RECOMENDACIONES
Para resolver un problema este debe comprenderse bien, rara vez existen
soluciones simples a problemas complejos. Si se comprende bien el problema,
introduciendo el conocimiento apriorístico en el modelo se obtiene un sistema más
eficiente.
• El valor clave de las redes neuronales artificiales es su capacidad para
modelar funciones no lineales muy complejas, aunque también se adaptan bien
a problemas altamente dimensionales, donde el número potencial de predictores
es muy grande.
• Un aspecto sumamente importante a considerar para la búsqueda de solución
mediante redes neuronales artificiales, es la calidad de la data de entrada (los
patrones con las que se entrenara la red) no solamente la cantidad con las que se
cuente básicamente basados en datos reales.
• Las redes neuronales alcanzan cada vez mayor auge, teniendo multitud de
aplicaciones en campos diversos y dando soluciones sencillas a problemas cuya
resolución resulta complicada cuando se emplean máquinas algorítmicas. Aún así,
el futuro de las redes neuronales no está todavía claro y será en los próximos años
cuando se determine su evolución.
Bibliografía
http://oa.upm.es/14183/1/MECANICA_DE_ROCAS_1.pdf
http://webcache.googleusercontent.com/search?q=cache:JbAH0u2gAWoJ:https://www.u-
cursos.cl/ingenieria/2011/2/GL5201/1/material_docente/objeto/384079+&cd=1&hl=es&ct=clnk&gl
=pe
http://ocw.uis.edu.co/ingenieria-civil/estabilidad-de-
taludes/clase11/ensayos_geotecnicos_de_rocas.pdf