Académique Documents
Professionnel Documents
Culture Documents
1 http://bart.ideam.gov.co/cliciu/valledu/valledu.htm
90.0000 103.0000
1.5000
Prob
lluvia(%)
80
90.0000 104.0000
1.3000
82
90.0000 104.0000
1.5000
84
95.0000 104.6000
0.8000
85
100.0000 104.7000
0.5000
85
95.0000 103.9000
1.5000
88
96.0000 103.9000
1.6000
88
90.0000 102.9000
1.8000
88
90.0000 102.8000
2.0000
88
99.0000 102.7000
1.9000
85
94.0000 102.6000
2.1000
70
93.0000 102.5000
2.3000
70
82.0000 102.4000
2.4000
71
90.0000 102.3000
2.5000
73
94.0000 102.2000
2.6000
70
80.0000 102.8000
2.7000
69
70.0000 102.7000
2.8000
69
89.0000 101.9000
3.0000
68
78.0000 101.2000
2.0000
69
75.0000 101.8000
3.0000
68
H(%)
P(Kpa)
V(m/s)
Dir
3.0000
26.0000
3.0000
26.0000
11.0000
26.0000
10.0000
26.0000
12.0000
27.0000
13.0000
27.0000
11.0000
27.0000
11.0000
27.0000
10.0000
28.0000
11.0000
28.0000
12.0000
28.0000
11.0000
29.0000
13.0000
29.0000
15.0000
29.0000
14.0000
30.0000
15.0000
30.0000
16.0000
30.0000
13.0000
30.0000
11.0000
31.0000
12.0000
31.0000
7.0000
31.0000
6.0000
32.0000
86.0000 101.7000
2.0000
67
80.0000 101.6000
3.0000
66
76.0000 101.5000
2.0000
65
70.0000 101.8000
3.0000
64
74.0000 101.6000
2.0000
58
70.0000 101.5000
3.0000
57
72.0000 101.4000
2.0000
48
69.0000 101.9000
3.0000
43
70.0000 101.8000
2.0000
45
79.0000 101.2000
3.0000
50
68.0000 101.1000
2.0000
40
79.0000 101.1000
1.0000
51
75.0000 101.1000
2.0000
40
68.0000 101.1000
2.0000
35
43
65.0000 101.1000
3.0000
42
64.0000 101.2000
2.0000
41
63.0000 101.1000
1.0000
40
65.0000 101.1000
2.0000
42
63.0000 101.2000
1.0000
41
53.0000 101.1000
3.0000
45
62.0000 100.9000
2.0000
44
6.0000
32.0000
8.0000
32.0000
7.0000
33.0000
6.0000
34.0000
5.0000
35.0000
5.0000
35.0000
5.0000
35.0000
7.0000
35.0000
7.0000
36.0000
7.0000
36.0000
6.0000
36.0000
5.0000
36.0000
7.0000
37.0000
4.0000
37.0000
3.0000
37.0000
4.0000
37.0000
4.0000
38.0000
3.0000
38.0000
2.0000
38.0000
3.0000
38.0000
2.0000
39.0000
5.0000
39.0000
61.0000 100.8000
3.0000
43
60.0000 100.7000
4.0000
35
59.0000 100.6000
2.0000
34
58.0000 100.5000
3.0000
35
57.0000 100.4000
4.0000
35
48.0000 100.3000
5.0000
32
58.0000 100.2000
4.0000
31
40.0000 100.1000
3.0000
32
49.0000 100.0000
2.0000
38
43.0000 99.9000
5.0000
38
38.0000 99.9000
7.0000
35
36.0000 99.8000
2.0000
34
39.0000 99.7000
5.0000
37
38.0000 99.6000
8.0000
31
32.0000 99.5000
4.0000
32
30.0000 99.4000
6.0000
34
29.0000 99.3000
5.0000
30
28.0000 99.2000
4.0000
29
25.0000 99.1000
6.0000
27
25.0000 98.7000
5.0000
26
27.0000 98.6000
6.0000
25
30.0000 98.5000
7.0000
24
5.0000
39.0000 26.0000
4.0000
40.0000 20.0000
2.0000
40.0000 21.0000
2.0000
40.0000 22.0000
1.0000
40.0000 26.0000
1.0000
41.0000 25.0000
15.0000
41.0000 28.0000
1.0000
41.0000 29.0000
3.0000
41.0000 18.0000
14.0000
Fuente: los autores.
98.4000
8.0000
23
98.1000
3.0000
20
98.1000
5.0000
16
97.9000
6.0000
17
97.6000
4.0000
18
97.5000
3.0000
19
97.4000
5.0000
16
97.3000
6.0000
17
47.7000
4.0000
20
Despus que se tienen los datos esperados se procede a crear la red neuronal en
MATLAB de la siguiente manera:
Los vectores de entradas y objetivos son llamados
p1=entradas
t1=salidas
La funcin newff crea una nueva red neuronal Backpropagation
red1=newff(p1,t1,[4 3]);
Esta expresin crea una red backpropagation de 2 capas con 4 neuronas en la
primera capa y 3 neuronas en la segunda :
Luego de que la red es creada se debe simular, habitualmente cuando se crea una
red esta no entrega directamente los valores esperados por lo tanto se debe
proceder al entrenamiento.
a=sim(red1,p1)
e1=t1-a
20.6955
-0.9987
-11.3222
-29.0523
-22.4013
-11.8717
19.8747
10.1095
-1.7985
Como se observa los errores son muy altos, se debe proceder a entrenar la red, lo
primero que se debe hacer es inicializar los parmetros de entrenamiento:
red1.trainParam.show =70;
-Visualizar iteraciones
red1.trainParam.lr = 0.599;
- Velocidad
red1.trainParam.mc = 0.95;
-Coeficiente de momentum
red1.trainParam.max_perf_inc =0.1; -Valor mximo entre error
red1.trainParam.epochs =7000;
-Nmero de iteraciones
red1.trainParam.goal = 0.1;
-Error mnimo permitido
red1.trainParam.lr_inc = 1.05;
- Multiplicador de incremento
red1.trainParam.lr_dec= 0.4;
-Multiplicador de decremento
e2=t1-x
Al entrenar la red aparece en pantalla el entrenador de redes neuronales
Figura 4. Neural Network Training
Los valores del vector de error e2 son mucho menores que los del vector e1 por lo
tanto la nueva red neuronal es mucho ms satisfactoria. Cabe resaltar que para
obtener e valores satisfactorios o aproximados es posible que se necesite varios
intentos variando los parmetros de entrenamiento.
Luego se obtienen las matrices de los pesos y bias de la RNA
w1=red1.IW{1,1}%pesos de entrada (capa oculta 1 con capa entrada)
b1=red1.b{1}
w2=red1.LW{2,1}%pesos de entrada (capa oculta 1 con capa salida 2)
b2=red1.b{2}
w1 = 1.4457
-1.0224
0.8133
0.6283
0.7655 -0.4721
0.9718 -0.1149
0.3145
0.1718
1.4424 -0.8483
b1 =
-1.7842
1.1469
0.1604
1.4183
2.4004
-0.1161
1.6561
0.0052 -0.4278
b2 =1.9943
1.0783
2.2734
Los datos que se utilizan para la activacin de la red neuronal son los pesos y los
bias.
en e n
t= n n
e +e
n=+b
t x=
Segunda capa
en 1e n1
en 1+ en 1
n=w 2tx + b 2
t=
enen
n 1
n
e +e