Académique Documents
Professionnel Documents
Culture Documents
O algoritmo backpropagation, proposto por Werbos, Parker e Rummelhart, foi um dos principais responsveis pelo ressurgimento do interesse em redes neurais artificiais, sendo o algoritmo de aprendizado mais conhecido para MLP (multi-layer perceptron). O backpropagation um algoritmo supervisionado que minimiza o erro atravs da execuo do gradiente decrescente na superfcie de erros do espao de pesos, onde a altura para qualquer ponto no espao de pesos corresponde medida do erro. Os pesos comeam a ser ajustados nas unidades de sada, onde a medida do erro conhecida, e continua com a retropropagao desse erro entre as camadas, ajustando os pesos at chegar na camada das unidades de entrada. Como nas unidades de sada os valores desejados e obtidos so conhecidos, o ajuste dos pesos sinpticos relativamente simples; entretanto para as unidades das camadas ocultas, o processo no to simples assim. Os pesos para um neurnio particular, nas unidades ocultas, devem ser ajustados proporcionalmente ao erro da unidade de processamento a qual est conectado. Assim, conseguimos distinguir duas fases no processo de aprendizagem do backpropagation. A fase forward, na qual as entradas se propagam entre as camadas da rede, da camada de entrada at a camada de sada. E a fase backward, cujos erros so propagados em sentido contrrio ao fluxo de entrada.
A fase backward tem as seguintes etapas: 1 Da ltima camada camada de entrada: 1.1 Sempre que a sada desejada d0 e sada real x0 sejam diferentes, os ns da camada atual ajustam seus pesos aplicando o mtodo gradiente decrescente:
( Onde: ( )
( )
( )
1.2 O erro de um n das camadas intermedirias calculado utilizando os erros dos ns da camada seguinte conectados a ele, ponderados pelos pesos das conexes entre eles. ( )
O backpropagation baseia-se na regra Delta proposta por Widrow e Hoff, sendo tambm conhecido como regra Delta generalizada. Uma sada aleatria obtida ao se apresentar certo padro de entrada a uma rede neural no treinada e o respectivo padro de sada. Da sada produzida, calcula-se um erro, que a diferena entre o valor obtido e o desejado. A finalidade do algoritmo reduzir o erro at um valor aceitvel, atravs dos ajustes dos pesos entre as conexes dos neurnios aplicando a regra Delta Generalizada que calcula o erro de n e o propaga para a camada anterior. Os pesos dos ns so ajustados para que o erro da rede diminua. As etapas do backpropagation podem ser sumarizadas nos seguintes passos: 1 - inicializar os parmetros e o conjunto de pesos W com valores pequenos e aleatrios; 2- Repetir at o erro ser mnimo ou at a realizao de um dados nmero de ciclos: 2.1 Para cada padro de treinamento X; 2.1.1 Definir a sada da rede atravs da fase forward; 2.1.2 Comparar as sadas obtidas com as sada desejadas; 2.1.3 Atualizar pesos dos ns atravs da fase backward.