Vous êtes sur la page 1sur 3

Algoritmo de Aprendizado Backpropagation

O algoritmo backpropagation, proposto por Werbos, Parker e Rummelhart, foi um dos principais responsveis pelo ressurgimento do interesse em redes neurais artificiais, sendo o algoritmo de aprendizado mais conhecido para MLP (multi-layer perceptron). O backpropagation um algoritmo supervisionado que minimiza o erro atravs da execuo do gradiente decrescente na superfcie de erros do espao de pesos, onde a altura para qualquer ponto no espao de pesos corresponde medida do erro. Os pesos comeam a ser ajustados nas unidades de sada, onde a medida do erro conhecida, e continua com a retropropagao desse erro entre as camadas, ajustando os pesos at chegar na camada das unidades de entrada. Como nas unidades de sada os valores desejados e obtidos so conhecidos, o ajuste dos pesos sinpticos relativamente simples; entretanto para as unidades das camadas ocultas, o processo no to simples assim. Os pesos para um neurnio particular, nas unidades ocultas, devem ser ajustados proporcionalmente ao erro da unidade de processamento a qual est conectado. Assim, conseguimos distinguir duas fases no processo de aprendizagem do backpropagation. A fase forward, na qual as entradas se propagam entre as camadas da rede, da camada de entrada at a camada de sada. E a fase backward, cujos erros so propagados em sentido contrrio ao fluxo de entrada.

Etapas do Algoritmo Backpropagation


A fase forward tem os seguintes passos: 1 Seja o conjunto de treinamento ( ) entrada. D apresentado primeira camada da rede, a camada C0; 2 Para cada camada Ci a partir da camada de entrada: 2.1 Os ns da camada Ci calculam seus sinais de sada que serviro como sinais de entrada para ns da camada Ci+1; 3 As sadas produzidas pelos ns da ltima camada so comparadas s sadas desejadas. so vetores de

A fase backward tem as seguintes etapas: 1 Da ltima camada camada de entrada: 1.1 Sempre que a sada desejada d0 e sada real x0 sejam diferentes, os ns da camada atual ajustam seus pesos aplicando o mtodo gradiente decrescente:

( Onde: ( )

( )

( )

1.2 O erro de um n das camadas intermedirias calculado utilizando os erros dos ns da camada seguinte conectados a ele, ponderados pelos pesos das conexes entre eles. ( )

O backpropagation baseia-se na regra Delta proposta por Widrow e Hoff, sendo tambm conhecido como regra Delta generalizada. Uma sada aleatria obtida ao se apresentar certo padro de entrada a uma rede neural no treinada e o respectivo padro de sada. Da sada produzida, calcula-se um erro, que a diferena entre o valor obtido e o desejado. A finalidade do algoritmo reduzir o erro at um valor aceitvel, atravs dos ajustes dos pesos entre as conexes dos neurnios aplicando a regra Delta Generalizada que calcula o erro de n e o propaga para a camada anterior. Os pesos dos ns so ajustados para que o erro da rede diminua. As etapas do backpropagation podem ser sumarizadas nos seguintes passos: 1 - inicializar os parmetros e o conjunto de pesos W com valores pequenos e aleatrios; 2- Repetir at o erro ser mnimo ou at a realizao de um dados nmero de ciclos: 2.1 Para cada padro de treinamento X; 2.1.1 Definir a sada da rede atravs da fase forward; 2.1.2 Comparar as sadas obtidas com as sada desejadas; 2.1.3 Atualizar pesos dos ns atravs da fase backward.

Aplicaes de Redes Neurais Artificiais


Podemos encontrar o emprego de redes neurais nas mais diversas aplicaes. Como aplicaes para controle de processos, para classificao de dados, para reconhecimento de padres em linhas de montagem, para filtros contra rudos eletrnicos, para anlise de imagens, para anlise de voz, para avaliao de crdito, para anlise de aroma e odor, para anlise e diagnstico de descargas parciais pelo reconhecimento do padroacstico, na robtica. Abaixo segue uma breve descrio de problemas solucionados atravs de RNAs. Predio Predio de sries temporais necessita de observaes em determinado perodo. O modelamento por RNA para este tipo de aplicao atraente pois no se faz necessrio entender completamente o processo, alm de no haver grande limitao no nmero de variveis. Podemos citar como exemplos de aplicao de RNA a problemas de predio, sistemas para previso climtica e o problema de prever o volume de vendas de um determinado produto, com base em observaes das vendas nas semanas anteriores. Otimizao A soluo de problemas de otimizao utilizando-se de RNAs exige que tais problemas sejam descritos apropriadamente a fim de que a rede possa trat-los. Ex: A soluo do problema do caxeiro-viajante atravs das redes de Hopfield. Processamento de imagens e sinais Aplicaes das RNAs nessas reas so: reconhecimento de caracteres escritos mo, compactao de dados, codificao, reconhecimento da fala e vrias outras. As RNAs podem tanto servir de ferramenta alternativa como de ferramenta complementar s tcnicas clssicas de soluo de problemas deste tipo. Classificao Em aplicaes de classificao, a RNA aprende a classificar um padro desconhecido entre as vrias classes ou categorias j existentes. As principais aplicaes de RNAs neste de problema so: reconhecimento de imagens (classificao de caracteres manuscritos ou impressos, reconhecimento de assinaturas, reconhecimento de faces), reconhecimento de sons (classificao de fonemas, reconhecimento de comandos), classificao financeira (anlise de crdito, previso de falncia de empresas). Um exemplo de RNA para melhoria na tomada de decises no diagnstico mdico. Para seu treinamento, uma srie de diagnsticos de pacientes, com diferentes caractersticas, com vrios sintomas, assim como os resultados de seus testes so submetidos rede. Da quando os dados de um novo paciente forem apresentados, a rede fornecer um diagnstico para os novos casos. Assim a RNA consegue fornecer um diagnstico, inicial em tempo real, um mdico; embora no seja uma ferramenta que substitua o mdico, ela serve para auxili-lo.

Vous aimerez peut-être aussi