DEPARTAMENTO DE ELCTRICA Y ELECTRNICA ASIGNATURA: CONTROL INTELIGENTE
Actividad No9.
Fecha: 28-04-2014 Nombre alumno1: Jorge Guillen Nombre alumno2: Alexis Gngora NRC: 2055
1. Describa en detalle el aprendizaje por descenso de gradiente.
- El propsito del aprendizaje es minimizar el error de salida utilizando un conjunto particular de datos de entrenamiento para ajustar los pesos de la red.
- Definimos una funcin de error E (wij) que mide como la red actual es correctamente entrenada.
- Las derivadas parciales de la funcin de error E (wij) / wij nos dice en qu direccin nos tenemos que mover en el espacio de peso para reducir el error.
- La tasa de aprendizaje h especifica los tamaos de paso que damos en el espacio de pesos para cada iteracin de la ecuacin de actualizacin de pesos.
- Seguimos paso a paso a travs del espacio de peso hasta que los errores son "suficientemente pequeo".
- Si elegimos funciones de activacin de las neuronas con derivados que adquieren particular formas simples, podemos hacer los clculos de actualizacin de peso muy eficaz.
2. Describa el procedimiento para entrenar una red neuronal de una capa.
- Tome el conjunto de patrones de entrenamiento que desea la red para aprender {ini p, outj p: i = 1 ... ninputs, j = 1 ... noutputs, p = 1 ... npatterns}
- Configure su red con unidades de entrada ninputs plenamente conectados a noutputs Unidades de salida a travs de conexiones con pesos wij
- Generar pesos iniciales aleatorios, por ejemplo, de la gama [-smwt, + smwt]
- Seleccione una funcin de error E apropiado (wij) y un factor de aprendizaje h
- Aplicar la actualizacin de pesos Dwij =-h E (wij) / wij wij a cada peso para cada patrn de entrenamiento p. Una serie de actualizaciones de todos los pesos para todos los patrones de entrenamiento se llama una poca de la actualizacion.
- Repita el paso 5 hasta que la funcin de error de la red es "suficientemente pequeo".
Pgina 2
3. Describa el procedimiento para entrenar un perceptron milticapa.
- Tome el conjunto de patrones de entrenamiento que desea la red para aprender {ini p, outj p: i = 1 ... ninputs, j = 1 ... noutputs, p = 1 ... npatterns}
- Configure su red con unidades de entrada ninputs plenamente conectados a noutputs Unidades de salida a travs de conexiones con pesos wij
- Generar pesos iniciales aleatorios, por ejemplo, de la gama [-smwt, + smwt]
- Seleccione una funcin de error E apropiado (wij) y un factor de aprendizaje h
- Aplicar la actualizacin de pesos Dwij =-h E (wij) / wij wij a cada peso para cada patrn de entrenamiento p. Una serie de actualizaciones de todos los pesos para todos los patrones de entrenamiento se llama una poca de la actualizacin.
- Repita el paso 5 hasta que la funcin de error de la red es "suficientemente pequeo".
4. Realizar un cuadro sinptico de las consideraciones prcticas para el aprendizaje por descenso de gradiente.
Nosotros Jorge Guillen y Alexis Gongora afirmamos que esta actividad es de nuestra autora y establecemos que para la elaboracin de la misma he seguido los lineamientos del Cdigo de tica de la Universidad de las Fuerzas Armadas ESPE