Académique Documents
Professionnel Documents
Culture Documents
PIURA
ESCUELA DE POSTGRADO
SECCION DE CIENCIAS
TESIS
PARA OPTAR EL GRADO ACADEMICO DE MAGISTER EN
MATEMATICA APLICADA
PIURA – PERU
AGOSTO - 2010
1
UNIVERSIDAD NACIONAL DE
PIURA
ESCUELA DE POSTGRADO
SECCION DE CIENCIAS
TESIS
__________________________ _________________________
_____________________________________
2
UNIVERSIDAD NACIONAL DE
PIURA
ESCUELA DE POSTGRADO
SECCION DE CIENCIAS
____________________________
Dr. CESAR HARO DIAZ
PRESIDENTE
___________________________________________
M. SC. JOSE DEL CARMEN SILVA MECHATO
SECRETARIO
_______________________________________
DR. ALEJANDRO IMAN ANCAJIMA
VOCAL
3
DEDICATORIA
"Para Alicia,
…por su apoyo incondicional”
4
DEDICATORIA
5
La búsqueda constante del conocimiento, conduce al descubrimiento de
altamente no lineales.
utilizando para ello información histórica del consumo mensual de este elemento
6
DEDICATORIA ..................................................................................................... 4
DEDICATORIA ..................................................................................................... 5
............................................................................................................... 6
.................................................................................................................... 7
INDICE DE TABLAS ............................................................................................ 8
........................................................................................... 9
................................................................................................ 10
....................................... 12
1.1 Problemática del agua en nuestro medio. ....................................... 12
1.2 Predicciones utilizando redes neuronales. ...................................... 14
1.3 Objetivos de la Investigación: ............................................................ 15
1.4 Importancia del estudio....................................................................... 15
1.5 Alcances y limitaciones ....................................................................... 17
1.6 Antecedentes. ...................................................................................... 19
CAPITULO II: MARCO TEORICO ................................................................... 22
2.1 Métodos tradicionales de predicción ................................................ 22
2.2 Métodos modernos de predicción ..................................................... 25
2.3 Inteligencia artificial (IA)...................................................................... 25
2.4 Redes neuronales................................................................................ 28
2.4.1 Neuronas Biológicas ................................................................ 28
2.4.2 Redes Neuronales Artificiales (RNA) .................................... 29
2.4.3 Arquitectura de las Redes Neuronales ................................. 31
2.4.4 Elementos de una Red Neuronal ........................................... 32
2.4.5 Forma de conexión (arquitectura) entre las redes .............. 39
2.4.6 Formas de Aprendizaje ............................................................ 42
2.4.7 Elección inicial de los pesos ................................................... 46
2.4.8 Entrenamiento de la red .......................................................... 46
2.4.9 Validación................................................................................... 47
2.4.10 Análisis de las series de tiempo utilizando una red neuronal
..................................................................................................... 49
CAPITULO III: METODOLOGIA ...................................................................... 51
3.1 Población y Muestra ............................................................................ 51
3.2 Diseño y Construcción de la Red Neuronal .................................... 51
3.2.1 Capas de entrada y salida....................................................... 51
7
3.2.2 Capas ocultas. Procesamiento ............................................... 52
3.2.3 Funciones de transferencia ..................................................... 52
3.2.4 Datos de entrenamiento .......................................................... 52
3.2.5 Normalización de datos ........................................................... 53
3.3 Datos de salida de la red .................................................................... 54
3.4 Proceso de Investigación ................................................................... 54
CAPITULO IV: DESCRIPCION DE RESULTADOS ..................................... 55
4.1 Evaluación del comportamiento de la serie de datos .................... 55
4.2 Evaluación del Autocorrelograma y Autocorrelograma parcial ..... 56
4.3 Análisis de la serie en primera diferencia ........................................ 60
4.4 Evaluación del Autocorrelograma y Autocorrelograma parcial de
las primeras diferencias ................................................................................ 60
4.5 Arquitectura de la red neuronal ......................................................... 64
4.6 Entrenamiento de la red nuronal ....................................................... 64
4.7 Pronóstico. ............................................................................................ 67
CAPITULO V: CONCLUSIONES Y RECOMENDACIONES ...................... 69
6.1. Conclusiones. ....................................................................................... 69
6.2. Recomendaciones ............................................................................... 69
REFERENCIAS BIBLIOGRAFICAS ................................................................ 70
ANEXO 1 ............................................................................................................. 73
ANEXO 2 ............................................................................................................. 75
INDICE DE TABLAS
8
Figura 1 Areas de la inteligencia artificial ............................................................... 27
Figura 2 Neurona biológica ...................................................................................... 28
Figura 3 Red multicapa ............................................................................................. 31
Figura 4 Neurona ....................................................................................................... 32
Figura 5 Función de transferencia lineal ................................................................ 36
Figura 6 Función de transferencia signo ................................................................ 37
Figura 7 Función de transferencia escalón unitario .............................................. 37
Figura 8 Función de transferencia logística ........................................................... 38
Figura 9 Función de transferencia gausiana con: 10, 2 ........................ 39
Figura 10 (a) Red con tres capas con conexión hacia delante. (b) Red con
conexiones laterales. (c) Red con conexiones hacia atrás o recurrentes. ............ 41
Figura 11 Errores de prueba y entrenamiento como una función de las
épocas de entrenamiento ............................................................................................. 48
Figura 12 Volumen total de consumo de agua en Piura. Años 2007-2009
(Anexo2). .................................................................................................. 55
Figura 13 Estadísticos descriptivos del consumo de agua................................ 56
Figura 14 Autocorrelograma del consumo de agua en Piura, 2007-2009 ...... 58
Figura 15 Autocorrelograma parcial del consumo de agua en Piura, 2007-
2009 .......................................................................................................... 58
Figura 16 Gráfico del consumo de agua, en primeras diferencias ................... 60
Figura 17 Autocorrelograma del consumo de agua en primeras diferencias. 62
Figura 18 Autocorrelograma parcial del consumo de agua en primeras
diferencias. ............................................................................................... 62
Figura 19 Arquitectura de la red neuronal ............................................................ 64
Figura 20 Entrenamiento de la red ........................................................................ 65
Figura 21 Evaluación del rendimiento de la red. ................................................. 66
Figura 22 Grado de ajuste del modelo.................................................................. 67
9
En Piura, las deficiencias en la disponibilidad, suministro y calidad del
agua, se han acentuado en los últimos años y con mayor intensidad en los
meses de verano. Las razones son múltiples, así tenemos el efecto invernadero
gestión de los recursos disponibles, siendo esto más evidente en empresas que
dependen de los gobiernos de turno, como lo es, la empresa del agua, en donde
10
Este trabajo, tiene un doble propósito; por un lado pretende llenar ese
pronósticos, basada en las redes neuronales, y por otro lado, servir de base para
futuras investigaciones.
históricos del consumo de agua registrados por la empresa EPS GRAU S.A.
11
1.1 Problemática del agua en nuestro medio.
económicas. Estos factores han provocado un lento pero firme deterioro del
demanda en los meses de verano, no se puede usar sin control; su uso continuo
un análisis para adecuar el uso del agua a las disponibilidades existentes. Esta
12
Según la FAO (Organización de las Naciones Unidas para la agricultura y
los no renovables.
subsuelo, y presenta una serie de deficiencias, tanto en la calidad del agua así
como en la continuidad y presión del suministro, entre otros; pero también los
Todos estos factores han contribuido a que, a comienzos del año 2001,
Participación del Sector Privado como una alternativa de gestión para mejorar la
1
Documental Piura. Disponible en
http://www.documentalpiura.com/economia/economia_agua.htm.
13
Aunque el problema de desabastecimiento de agua ya se solucionó en
contar con mecanismos adecuados (Pronósticos), que les permitan conocer cuál
decir necesitan herramientas que les permita conocer con algún nivel de
de la empresa y para tomar las previsiones del caso, con la finalidad de brindar
(veranos). Los métodos de pronósticos existentes son múltiples, van desde los
aplicación como los sistemas expertos, dentro de los cuáles, destacan las redes
14
conocida. Una buena alternativa en estas situaciones y aún en aquellas en
partir de la demanda histórica del agua registrada por la empresa EPS GRAU
por este tipo de conocimientos, debido a que las expectativas sobre el futuro de
herramientas son extremadamente costosas, y peor aún, son pocas las personas
15
que pueden efectuar un pronóstico seguro a partir de los resultados de las
mismas.
los cuales están basados en algún modelo específico, como los modelos de
renovado interés acerca de los aspectos del agua a nivel global ha estimulado
varios esfuerzos en este tema. Estos nuevos esfuerzos también aprovechan los
Las proyecciones sobre el uso global del agua, son cada vez más complejas en
proyecciones eran variantes de la misma metodología –el futuro del uso del agua
industrial, comercial y residencial (por ejemplo, agua por individuo o por hogar) y
16
en la utilización de los métodos denominados tradicionales. Con el advenimiento
tradicionales (Nojek, Britos, Rossi & García, 2003). Esta nueva tendencia en la
metodología.
pronósticos.
17
necesidades básicas de la población; está orientado a la solución de un
ciudad de Piura. Este intento, además permite sentar las bases para nuevas
existentes.
sobre la investigación.
18
1.6 Antecedentes.
gran parte de las inquietudes de los seres humanos, sobre los acontecimientos
que se sucedían día a día y de los que aun estaban por suceder. El
fenómenos.
19
Tabla 1 Población Total y Servida de Agua Potable de las localidades de EPS
Grau S.A.
Piura-Castilla
Año Población total Población servida
hab. % Hab.
2005 348,618 91.0% 317,114
2006 359,862 91.0% 327,474
2007 365,260 92.0% 336,039
2008 370,739 93.0% 344,787
2009 376,300 94.0% 353,722
2010 381,945 95.0% 362,848
2015 405,418 95.0% 385,147
2020 430,334 95.0% 408,817
2025 454,529 95.0% 431,803
2030 480,276 95.0% 456,262
2035 519,343 95.0% 493,376
en Piura hasta el año 20352, en el cuál se estimó que para el año 2005 y 2006 la
cobertura de agua llegaría al 91% de la población (Tabla 1), cifra que en el año
concesión del agua a operadores privados) o por alguna deficiencia del método
2
Hytsa –Ecsa. Estudio de Asesoría para el proceso de inversión privada en la EPS Grau
S.A, 2003.
20
En otro estudio hecho por Proinversión (2006), se utiliza el crecimiento
lo cual puede reorientar sus hábitos de consumo, hacia un uso más eficiente del
limitación de estos resultados es que los pronósticos son anuales y no hay datos
sobre periodos más cortos, como meses o trimestres. Esto sugiere que los
21
CAPITULO II: MARCO TEORICO
En los últimos años han surgido nuevas herramientas que combinan las
cual a su vez forma parte de lo que hoy en día se conoce como Inteligencia
cruzado).
22
Los métodos cuantitativos, parten del supuesto que se tiene registros de
papel del investigador en este caso es, tratar de extraer todo los conocimientos
pasado, realizar conjeturas sobre el futuro (Uriel, E., 1995b). Aquí, Los patrones
23
Los métodos de suavización exponencial, permiten también estimar la
pudiéndose hacer que las observaciones más recientes tengan una mayor
importancia en el pronóstico.
acepta que éste representa a la serie, se lo utiliza para elaborar los pronósticos.
determinada por su pasado, sino que pueden existir otras variables externas que
pronóstico. Algunas sirven para horizontes que van desde unos pocos minutos
un horizonte mayor. Aunque estas técnicas suelen ser bastante automáticas, sin
error, sin embargo también es importante que sus resultados sean interpretables.
buenos con éstos métodos, hoy en día han surgido nuevas alternativas, que
24
están relacionadas con los sistemas expertos, motivo de la presente
investigación.
que cierto tipo de problemas de difícil tratamiento con los métodos tradicionales,
de investigación, que surge “La inteligencia artificial”, como una de las áreas más
ello se encuentra a través de toda la historia, como por ejemplo el mito del
coloso de rodas entre los griegos, el “motor analítico de Charles Babbage que
calculaba logaritmos (ELGUEA, 1987); sin embargo, fue sólo a partir de 1943,
cuando estos intentos vieron la luz, gracias a Warren Mc Culloch y Walter Pitts,
25
reconoció explícitamente que el pensamiento puede ser comprendido de manera
formal y científica y que es posible transmitirlo a las máquinas (ELGUEA, J., Op.
Cit., p 24).
Neuman, quién trató de hacer analogías del cerebro humano y construyó a partir
Von Neuman, quien trataba de imitar las condiciones físico-químicas del cerebro.
multiplicaron.
problemas complejos, los cuáles se pensaba, sólo podían ser resueltos por
26
Sistemas
Redes
expertos
bayesianas
Redes
neuronales
Reconocimiento
de patrones Algoritmos
evolucionarios
Lógica
Sistemas difusa
basados
en reglas
(1981), página 4). Esta disciplina engloba varias áreas de interés, como son los
reglas, entre otras. Aunque cada una de ellas constituye por sí misma un área de
27
2.4 Redes neuronales
procesan y emiten una respuesta que permiten la vida normal del ser
humano.
Las neuronas son las células que forman la corteza cerebral de los
seres vivos y cada una está formada por tres elementos: el cuerpo, axón y
Axón
Dendritas
28
similar a las demás células del cuerpo, funcionan a través de impulsos
neurona para intercambiar información con las demás, viajan por el axón, que
eléctrico por su axón, si hay suficientes señales de las neuronas vecinas que
29
elementos de procesamiento altamente interconectados (neuronas), los
Las RNA, tal como las personas, aprenden de la experiencia y son capaces
neurona realiza una serie de cálculos y envía su propia señal, la cual está
señal.
veces menor que en los actuales elementos de las computadoras, ellas tienen
30
apropiadamente cuando se les presentan datos o situaciones a las cuales no
redes son tolerantes a fallos; las redes pueden aprender a reconocer patrones
parte de la red.
neural y los otros métodos de pronóstico, es que, ésta hace uso de una o más
capas ocultas, en las cuales las variables de entrada son transformadas por
lineales.
31
AXONES SINAPSIS
CUERPO
x1
W1 DENDRITAS
-1
i
x2
W2 AXON
y f ( wi xi )
Salida
xn Neurona
Wn
Entradas
Pesos
Figura 4 Neurona
(aunque esto último puede variar). La información fluye por medio de la “capa
32
n
yj f( wij x j )
j 0
transferencia) y wij son los pesos que indican la aportación que tiene cada
de la neurona.
33
conduzcan a seleccionar una configuración óptima. Esos factores incluyen
salida. Puede ser tentador construir una red con muchas unidades de
conjuntos de entrada y salida más que aprender las relaciones entre ellos.
Dicha red puede entrenar bien, pero tener un pobre rendimiento cuando se
y compleja. Es mejor iniciar con el diseño de una red simple que usa
términos sencillos, un diseño simple con una capa oculta con 10 nodos,
puede no aprender y rendir bien como una red con dos capas ocultas
34
información y de relaciones. De esta manera, la habilidad de aprendizaje
destacan aquellas que tienen como salidas, valores que fluctúan entre -1 y
del vector que contiene las señales de entrada al nodo y el vector que
función sigmoide debería ser el modelo base para medir los resultados.
3
, donde es el vector de entradas y es el vector de pesos.
35
suma de las señales de entrada es menor que un límite inferior, la
f ( x) x; x .
0, si x 0
1, si x 0
sgn(x ) , Y ( x)
1, en otro caso 1, en otro caso
36
Figura 6 Función de transferencia signo
Funcion sigmoidal: son funciones monótonas que dan una salida gradual
no lineal para las entradas. Para la mayoría de los valores del estímulo de
1
función. Esta función está definida como: f ( x ) ax
, siendo a una
1 e
constante. Figura 8.
37
a=0.5 a=1 a=2
1 x
1 ( )2
2
f (x) e
2
38
Figura 9 Función de transferencia gausiana con: 10, 2
controlar sus conexiones. Esto permite que el flujo lógico sea introducido en
de la red. El paso a través de los nodos puede ser construido de manera que
39
reciban sólo una conexión de la capa precedente y pasar la información hacia
neuronas. Esto tiene el efecto de crear conexiones que salten una capa. La
- Propagación hacia atrás: Cuando las salidas pueden estar conectadas como
tipo de redes.
40
Figura 10 (a) Red con tres capas con conexión hacia delante. (b) Red con
conexiones laterales. (c) Red con conexiones hacia atrás o
recurrentes.
41
2.4.6 Formas de Aprendizaje
descubrir por si misma los patrones, sin información externa. Dentro de los
Este proceso es controlado por una especie de agente externo que determina
que mide la diferencia entre los valores de salida deseados y los calculados
por la red.
42
neuronales, siendo propuestos los dos primeros a finales de los años
difícilmente abordables.
entrenamiento de Backpropagation.
maneras:
sobre todo los patrones. Esto se logra modificando los pesos en dirección
5
Cada caso u observación asociado a las variables de entrada del modelo y a las variables de
salida es denominado patrón de entrenamiento.
43
opuesta al gradiente de la función de error; este es el algoritmo que utiliza la
dada por:
En este caso,
: el peso nuevo
Este algoritmo basado en la técnica del descenso por el gradiente, calcula las
44
finalidad de encontrar el valor mínimo de la función de error, aunque nadie
garantiza que se llegue o que sea el camino más rápido hacia él. Frente a
Donde:
6: es la matriz jacobiana.
: es el vector de errores.
45
2.4.7 Elección inicial de los pesos
r 2
bp b̂ p
p 1
r 2
ECM bp bˆ p / r
p 1
r 2
bp bˆ p / r
p 1
46
- El error máximo:
2
max b p b̂ p
p 1,, r
2.4.9 Validación
Así mismo es importante realizar una validación cruzada para obtener una
de entrenamiento a la red.
lo cual indica que se han capturado las tendencias reales del modelo.
ANN.
47
F
Conjunto prueba
Conjunto Entrenamiento
Epocas de entrenamiento
48
entrenamiento comienza a crecer, produciéndose el sobreaprendizaje o sobre
ser vista como una función contínua de la variable temporal . Para propósitos
49
En el problema del pronóstico, formalmente, se trata de encontrar
serie , tan cerca como sea posible, mientras que es el error de medida o
50
CAPITULO III: METODOLOGIA
de la serie con sus valores pasados. Teniendo en cuenta que el estudio busca
investigación aplicada.
poco confiable, por lo que sólo se utilizarán los datos correspondientes a los
51
3.2.2 Capas ocultas. Procesamiento
Antes de que la red sea creada y entrenada, los datos para el modelo
integridad del modelo. Una vez que la información para los modelos es
así como datos de prueba, puede tener un formato de texto o usar formato
52
La preparación apropiada de los datos, puede marcar la diferencia
que la señal de salida del nodo está restringida al rango 0 a 1. Aún si todo
entrenamiento estuvieran entre 0.01 y 0.02, sería mejor normalizar los datos
sobre un rango más amplio para que la red pueda resolver y predecir las
53
3.3 Datos de salida de la red
embargo, se debería notar que cuando las entradas a una red son
ésta no cumplía con este requisito, ésta se diferenció y fueron los dos primeros
programa.
54
CAPITULO IV: DESCRIPCION DE RESULTADOS
la ciudad de Piura entre los años 2007 y 2009 tiene una tendencia, sin embargo,
parecer, tanto la media como la varianza cambian con el transcurso del tiempo.
1200000
Volumen (m3)
1150000
1100000
1050000
1000000
Mar-07
May-07
Mar-08
May-08
Mar-09
May-09
Ene-07
Ene-08
Ene-09
Sep-07
Nov-07
Sep-08
Nov-08
Sep-09
Nov-09
Jul-08
Jul-07
Jul-09
55
normal, aunque con ciertas irregularidades en los extremos y centro de la
P>0.05, con el cuál no se puede rechazar la hipótesis que los datos siguen una
distribución normal.
7
Series: AGUA
6 Sample 2007M01 2009M12
Observations 36
5
Mean 1168960.
Median 1177446.
4 Maximum 1225866.
Minimum 1072127.
3 Std. Dev. 46148.57
Skewness -0.703069
2 Kurtosis 2.400095
1 Jarque-Bera 3.505666
Probability 0.173282
0
1080000 1120000 1160000 1200000
fuera de los límites de confianza del 95%; lo mismo sucede a partir del rezago 20
al 35. En segundo lugar, podemos apreciar que la PACF, Figura 15, después del
56
estadísticamente no significativos. Por otra lado, la prueba de Ljung-Box (LB),
57
Volumen Total Consumo de Agua (M3)
1,0 Coeficiente
Límite de confianza
superior
Límite de confianza
inferior
0,5
ACF
0,0
-0,5
-1,0
1 2 3 4 5 6 7 8 9 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3
0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4
Rezago
1,0 Coeficientes
Límite de confianza
superior
Límite de Confianza
Inferior
0,5
PACF
0,0
-0,5
-1,0
1 2 3 4 5 6 7 8 9 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3
0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4
Rezago
58
Otra prueba para verificar si la serie es o no estacionaria, es la prueba de
toda las pruebas son no significativas (P>0.05), lo cual nos conduce a aceptar la
hipótesis de que la serie tiene una raíz unitaria, lo que indica nuevamente que la
serie es no estacionaria.
59
4.3 Análisis de la serie en primera diferencia
PRIMERAS DIFERENCIAS
40,000
30,000
20,000
10,000
-10,000
-20,000
-30,000
-40,000
I II III IV I II III IV I II III IV
2007 2008 2009
primeras diferencias
(P>0.05) en casi todos los rezagos, a excepción del rezago 33, indica que la
60
correlación conjunta es cero hasta el rezago 32, lo que nuevamente confirma
61
CONSUMO DE AGUA: PRIMERA DIFERENCIA
1,0 Coeficientet
Límite de confianza
superior
Límite de confianza
inferior
0,5
ACF
0,0
-0,5
-1,0
1 2 3 4 5 6 7 8 9 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 3 3 3 3
0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3
Rezago
1,0 Coeficiente
Límite de confianza
superior
Límite de confianza
inferior
0,5
PACF
0,0
-0,5
-1,0
1 2 3 4 5 6 7 8 9 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 3 3 3 3
0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3
Lag Number
diferencias.
62
sometidos a prueba tienen raíz unitaria, lo cual significa que la serie en primera
diferencia es estacionaria.
El análisis anterior, nos permite entrenar la red, con los datos expresados
se ha trabajado con un modelo que contempla sólo dos rezagos para las
63
4.5 Arquitectura de la red neuronal
La red tiene dos capas, una capa de entrada con dos neuronas, y una
Σ 1
Σ
1
Σ
•
•
1
Σ
•
1
Los datos utilizados para entrenar la red, están basados en las primeras
intervalo [0, 1], que es un requisito para las redes de Backpropagation. Para el
20).
64
Figura 20 Entrenamiento de la red
toma el error cuadrático medio, muestra que la red está aprendiendo; el Error
65
lograr un valor pequeño, a partir del cual nuevamente comienza a aumentar; es
66
Figura 22 Grado de ajuste del modelo
4.7 Pronóstico.
utilizando para ello la función , la cuál usa los pesos de la red entrenada.
67
valores pronosticados se obtienen con la ecuación: , siendo la
periodo siguiente al último mes de la serie, es decir para enero del 2010,
mediante: 1222381+11937=1234318
68
CAPITULO V: CONCLUSIONES Y RECOMENDACIONES
6.1. Conclusiones.
una vez que se tienen nuevos datos, hay que ir entrenando nuevamente la
6.2. Recomendaciones
69
REFERENCIAS BIBLIOGRAFICAS
01. Acosta, B. A. y Zuluaga M. (2000). Tutorial sobre Redes Neuronales
Aplicadas en Ingeniería Eléctrica y su implementación en un sitio
Web. Revista Colombiana de Tecnologías Avanzadas. Pereira-
Colombia.
02. Ashley, R. (2003). Statistically significant forecasting improvements:
How much out-of-sample data is likely necessary? International
Journal of Forecasting, 19, 229–239.
03. Barr, A. & Feigenbaum, E. A. (1981). The Handbook of Artificial
Intelligence. Volume I. William Kaufman. Los Altos, California, CA.
04. Berenson, M. L., Levine, D. M. y Krehbiel T. C. (2001). Estadística
para Administración (2ª ed.). Pearson Educación. México.
05. Bishop, C. M. (1995). Neural networks for pattern recognition.
Oxford. Oxford University Press.
06. Castiglione, F. (2002). Forecasting price increments using an
artificial Neural Network. Adv. Complex Systems, 1, 1-12.
07. Castillo, E., Gutiérrez, J. M. & Hadi, A. S. (1999). Expert Systems
and Probabilistic Network Models. Edit. Springer Verlag. New York,
USA.
08. Castillo, E., Cobo, A. y Gutiérrez, J. M (1999). Introducción a las
Redes Funcionales con Aplicaciones: Un nuevo paradigma neuronal
Edit. Paraninfo. Madrid España.
09. Castillo, E. & Alvarez, E. (1991). Expert Systems: Uncertainty and
Learning. Computational Mechanics Publications and Elsevier
Applied Science, London, U.K.
10. Chatfield, C. (1995). The analysis of time series. An Introduction.
Fifth Edition. Chatman &Hall/CRC. London.
11. Chen, A. S., Leung, M. T. & Daouk, H. (2003). Application of neural
networks to an emerging financial market: Forecasting and trading
the Taiwan Stock Index. Computers & Operations Research, 30(6),
901–924
12. Cipriano, A, Prina J.P y Ramos M.E. (1996). Predicción de demanda.
Pontificia Universidad Católica de Chile. Facultad de Ingeniería.
Noviembre de 1996.Demuth, H.B., Beale, M. & Hagan M. (1992-
2010). Neural Network Toollbox 6. User’s Guide. Matlab. The
MathWorks. Massachusetts.
13. Durkin, J. (1994). Expert Systems: Design and Development.
Maxwell Macmillan, New York.
14. Hagan, M. T., Demuth, H.B., & Beale, M. (1996). Neural Network
Design. PWS Publishing Company, Boston.
15. Husken, M. & Stagge, P. (2003). Recurrent neural networks for time
series classification. Neurocomputing, 50, 223–235.
16. David, J.C., McKay (2003). Information Theory, Inference, and
Learning Algorithms. Cambridge University Press.
70
17. McCulloch, W. S. & Pitts, W. (1943). A logical Calculus of Ideas
Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5,
115-133.
18. Mendelsohn, L. B. (2000). Trend Forecasting With Technical
Analysis. Marketplace Books, United States of America.
19. PROINVERSION (01-2006): Plan Maestro Optimizado para las
ciudades y localidades de Piura, Catacaos, Las Lomas, Paita y
Anexos. Lima.
20. Nojek, S., Britos, P., Rossi, B. & García M. R. (2003). Pronóstico de
Ventas: Comparación de Predicción basada en Redes Neuronales
versus Método Estadístico. Departamento de Ingeniería Industrial.
Instituto Tecnológico de Buenos Aires. Av. Madero 399
(C1106ACD). Buenos Aires - Argentina.
21. Ruiz, C.A., Basualdo, M.S. (2001). Redes Neuronales: Conceptos
Básicos y Aplicaciones. Rosario-Argentina.
22. Ripley, B.D. (1996). Pattern recognition and neural networks.
Cambridge: Cambridge University Press.
23. Rumelhart, D.E., Hinton, G.E. & Williams, R.J. (1986). Learning
internal representations by error propagation. En: D.E. Rumelhart y
J.L. McClelland (Eds.). Parallel distributed processing (pp. 318-362).
Cambridge, MA: MIT Press.
24. Schwartz, P. (1991). The Art of the Long View. Currency/Doubleday
Press, New York.
25. Situngkir, H. & Surya, Y. (2004). Neural Network Revisited:
Perception on Modified Poincare Map of Financial Time Series Data.
Europhysics Conference of European Physical Society.
26. Uriel, E. (1995). Análisis de datos. Series Temporales y Análisis
Multivariante. Edit. AC. Madrid-España.
27. Uriel, E. (1995). Series temporales, Modelos ARIMA. 3ª Ed. Editorial
Paraninfo. Valencia-España.
28. Zhang, G.P, Keil, M., Rai, A., & Mann, J. (2003). Predicting
information technology project escalation: A neural network
approach. European Journal of Operational Research, 146, 115–
129.
71
LINKOGRAFIAS
1. CRIADO, B., J., M. (2002). Sistemas Expertos. Extraido el 20 de
Julio, 2010 de http://www.monografias.com/trabajos16/sistemas-
expertos/sistemas-expertos.shtml#REFEREN.
72
ANEXO 1
Programa para entrenar y simular la red neuronal artificial
% Programa que entrena una red neuronal artificial con 1 capa oculta
% Piura, julio 2007
clear
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%definiendo las variables del la red
%El indice comienza en 3 porque se esta considerando dos rezagos
y=load('tesis.txt');
for i=2:size(y)
d(i-1)=y(i)-y(i-1); %Datos expresados en primeras diferencias
end;
d=transpose(d);
n=size(d);
for j=2:n+1
d1(j-1)=d(j-1);%Diferencias rezagas un periodo
end;
d1=transpose(d1);
n=size(d1);
for j=2:n+1
d2(j-1)=d1(j-1);%Diferencias rezagadas dos periodos
end;
d2=transpose(d2);
d=d(3:35);
d1=d1(2:34);
d2=d2(1:33);
z=[d1,d2,d];
save dif.txt z;
% definiendo la topologia de la red
n0=2; % numero de neuronas en la entrada
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
alfa=0.4; % tasa de aprendizaje, varia entre 0 y 1
nepocas=1000; % Nº de veces que se le presenta un patron de calibracion
%a la red o Nº de iteraciones
73
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
[npat,m]=size(z);
[znorm,PS]=mapminmax(z,0.02,0.98); %transforma los datos al intervalo 0, 1
mx=znorm(1:npat,1:n0); % matriz de entrada x
mxa=[ones(npat,1),mx]; % matriz de entrada aumentada con unos
my=znorm(1:npat,n0+1:m); %mariz de deseados y
mx1=transpose(mxa);%matriz mx transpuesta
my1=transpose(my);%matriz my transpuesta
numHiddenNeurons = 30; % Adjust as desired
net = newfit(mx1,my1,numHiddenNeurons,{'logsig','purelin'});
%Crea la red
%Por defecto usa el algoritmo de entrenamiento de Levenberg-Marquardt
net=init(net); %inicia la red, con nuevos pesos
net.divideParam.trainRatio = 70/100; % Adjust as desired
net.divideParam.valRatio = 15/100; % Adjust as desired
net.divideParam.testRatio = 15/100; % Adjust as desired
[net,tr]=train(net,mx1,my1); %Entrena la red
my2=sim(net,mx1); %simula la red: estima los valores de la serie
zest=[mx,my2']; %concatena las matrices input con los valores estimados
difer_desn = mapminmax('reverse',zest,PS);%Diferencias desnormalizadas
dif=difer_desn(1:npat,n0+1:m); %seleccion de los valores estimados de y
yorig=dif+y(4:36); %devuelta a los valores originales.
74
ANEXO 2
75
Tabla 7 Datos de las primeras diferencias, primeras diferencias rezagadas
uno y dos periodos.
d d(-1) d(-2)
-0.8555 1.7895 0.1649
3.2317 -0.8555 1.7895
-0.5176 3.2317 -0.8555
-0.0795 -0.5176 3.2317
0.152 -0.0795 -0.5176
2.9341 0.152 -0.0795
0.2866 2.9341 0.152
0.0851 0.2866 2.9341
3.286 0.0851 0.2866
-0.2134 3.286 0.0851
2.5055 -0.2134 3.286
-0.8105 2.5055 -0.2134
-2.4474 -0.8105 2.5055
1.4591 -2.4474 -0.8105
-0.6357 1.4591 -2.4474
0.0813 -0.6357 1.4591
-0.8379 0.0813 -0.6357
1.7091 -0.8379 0.0813
-0.3025 1.7091 -0.8379
-0.3985 -0.3025 1.7091
2.2903 -0.3985 -0.3025
0.2846 2.2903 -0.3985
1.8059 0.2846 2.2903
0.0971 1.8059 0.2846
0.3096 0.0971 1.8059
-0.1181 0.3096 0.0971
-0.3936 -0.1181 0.3096
-0.2618 -0.3936 -0.1181
-3.1121 -0.2618 -0.3936
-1.1369 -3.1121 -0.2618
2.1517 -1.1369 -3.1121
1.3286 2.1517 -1.1369
1.1937 1.3286 2.1517
76