Académique Documents
Professionnel Documents
Culture Documents
1 n
0 i
1 m
0 i
i i i i
) k ( y ). k ( w ) k ( x ) k ( v f ) k ( a
onde f deve ser uma funo decrescente tal que f(0) = 1, f(n) = 0, e f() 0.5,
onde chamado de limiar de dissimilaridade, devendo estar entre 0 e n. Exemplos de
funes deste tipo seriam
'
<
x se , 0
x se , 1
) x ( f
h
.chamada funo hard-limiter invertida,
ou ento f x
e
e
s
x
x
( )
.( )
.( )
+
1
, chamada de funo sigmide invertida
Para o clculo da ativao, so utilizadas duas parcelas significativas, a
medida de dissimilaridade entre v e x, dada pela primeira somatria e a parcela
simblica, dada pela segunda somatria.
A sada z do neurnio ser dada pela equao a seguir:
'
+
>
+
contrrio caso , a ). 1 ( ] k [ z .
] k [ z a se , a
] 1 k [ z
A rede neural composta por uma nica fileira de m neurnios, de tal modo
que a sada z da rede realimenta as entradas y de cada neurnio. Os pesos v so
inicializados com valores randmicos entre 0 e 1, e os pesos w so todos inicializados
em 0. O limiar de dissimilaridade deve assumir um valor entre 0 e n, onde n igual
ao nmero de entradas x da rede, estando relacionado ao limiar de similaridade
necessrio para que um cone seja interpretado. Quanto mais prximo de 0, mais a
entrada x deve ser similar ao signo interno codificado em v de modo que o neurnio
seja ativado. Quanto mais prximo de n, mais esta hiptese relaxada. A lei de
aprendizado para v dada pela equao a seguir:
) k ( x ) 1 ( ) k ( v ) 1 k ( v
i i i
+ +
Esta lei aplicada somente ao neurnio com a menor medida de
dissimilaridade entre v e x.
A lei de aprendizado para os pesos w dada pela equao a seguir:
'
>
+
contrrio caso , 0
n ) k ( w ou )) k ( z ), k ( z min( se , n
) 1 k ( w
ij j i
ij
Vamos agora analisar o funcionamento da rede. A entrada x comparada com
todos os neurnios da rede. Cada neurnio representa um signo interno. Cada neurnio
computa ento a dissimilaridade entre seu peso interno v e a entrada x, por meio do
clculo ( ) v x
i i
i
n
0
1
. Se o vetor x for idntico a v, este clculo nos d um valor 0.
Independente de qualquer qualquer valor para as entradas y e para o parmetro , esta
entrada ir ativar o neurnio, fazendo z[k+1] = 1. Para medidas de dissimilaridade
entre 0 e n, a ativao do neurnio depender do parmetro , o limiar de
dissimilaridade. Por enquanto, iremos ignorar as entradas y, na medida que todos os
pesos w foram inicializados em 0. Uma vez disparado, um neurnio ter um
decaimento no tempo de acordo com o parmetro . Isso significa, que mesmo que o
cone da entrada seja retirado, o neurnio continuar mantendo sua sada por um
perodo de tempo. O neurnio que obtiver a mnima medida de similaridade dever ter
seus pesos v atualizados. Esta atualizao se dar efetuando-se uma combinao linear
entre o vetor v do neurnio e o vetor x de entrada. O grau deste combinao linear
ser poder ser fixo ou varivel, dependendo da sofisticao que se deseja no modelo.
Uma maneira de se fazer varivel, contando o nmero de vezes em que um
neurnio sofreu um aprendizado. Inicialmente, o valor de deve ser pequeno, de
modo a tornar v mais prximo de x. A medida que o neurnio j sofreu diversos
passos de aprendizado, este valor pode ir crescendo, tendo a tendncia a manter o valor
anterior de v a um novo passo de aprendizado.
At agora, verificou-se a metodologia de aprendizado e interpretao de
cones. Para o aprendizado e a interpretao de smbolos, teremos de considerar
tambm os pesos w. O aprendizado dos pesos w ocorre quando dois neurnios tm
seus valores altos. Isso pode ocorrer por dois motivos. Pelo primeiro deles, quando
dois vetores v da rede possuem uma mesma (ou prxima) medida de dissimilaridade.
Este caso no muito interessante, pois de certa forma, significa que seus signos
internos so semelhantes. O outro caso em que isso ocorre, quando ocorre a
apresentao sequencial de dois tipos diferentes de cones. O primeiro cone foi
reconhecido, levando o primeiro neurnio a ser ativado. Durante o tempo de
decaimento deste neurnio, outro signo foi apresentado na entrada, levando um
segundo signo interno a ser ativado. Neste caso, teremos a modificao do peso w que
liga a sada de um com a entrada y do outro e vice-versa. Esse peso levado ento para
um valor -n. Com esse valor, sempre que um dos neurnios for ativado, o outro
tambm o ser na iterao seguinte. Na medida em que um peso w levado a um valor
-n, ele permanece nesse valor, indicando uma ligao simblica entre os dois cones.
Um exemplo de tal processamento seria novamente o da palavra "carro". Imagine que
existam transdutores acsticos e ticos gerando o vetor x. Diante da imagem grfica da
palavra "carro", um dos neurnios dever ser ativado. Diante do som da palavra carro,
outro neurnio ser ativado. Digamos agora, que estes estmulos sejam apresentados
sequencialmente rede. Inicialmente a imagem da palavra carro ir ativar um
neurnio. Em seguida, dentro do tempo de decaimento deste neurnio, apresentou-se o
som da palavra carro. A lei de aprendizado, neste caso, ir criar uma ligao simblica
entre estes neurnios, de modo que sempre que tanto a imagem como o som da palavra
carro sejam apresentados, ambos os neurnios sero ativados. interessante ressaltar,
que a apresentao dos estmulos deve ocorrer em curto espao de tempo. Caso o
primeiro neurnio decaia abaixo do limiar , o aprendizado no ocorrer.
A rede neural apresentada, implementa portanto um sistema inteligente
rudimentar, capaz de interpretar e aprender cones e smbolos. Do mesmo modo,
podemos imaginar que um padro de entrada, quando est modificando os pesos v de
um neurnio, est atuando como um ndice, pois o mesmo est funcionando como uma
chave para um procedimento (o de aprendizado). Entretanto, ndices mais sofisticados
ainda no podem ser processados por esta rede.
6. Extenses
O modelo da rede neural apresentado, pode ser extendido de modo a
incorporar as dimenses apraisivas e prescritivas do interpretante. Para incorporar a
dimenso apraisiva, entretanto, tal rede necessitaria de uma funo de avaliao. Para
gerar esta funo, seria necessrio atribuir objetivos ao sistema, de modo a verificar se
as aes do sistema inteligente esto ou no contribuindo para se atingir tais objetivos.
O ideal seria que este comportamento em direo aos objetivos fosse emergente do
sistema, e no previamente programado. Para tal, seria necessrio definir alguns
"instintos bsicos" ao sistema inteligente, tais que a partir destes instintos, que
incluiriam neurnios gerando valores em um sistema apraisivo e prescritivo, emergisse
um comportamento que guiasse o sistema ao cumprimento de seus objetivos. A
determinao de uma sub-rede neural que implementasse tal comportamente poderia
ser efetuada com uma adaptao da presente rede neural, onde os pesos v seriam ao
invs de codificaes internas de um vocabulrio de signos, codificaes internas de
um vocabulrio de aes, sendo que os neurnios que fossem ativados, deveriam
mandar tais codificaes para os atuadores diretos do sistema. Como j foi discutido
antes, existe aqui uma complicao a mais, que o sequenciamento no tempo de aes
complicadas que so divididas em diversas aes mais simples, e a interao destas
aes com outros signos processados neste nterim. Realmente, neste texto, estamos
apenas sugerindo como tais redes poderiam ser implementadas, e no explicitando
exatamente como deveria ser sua constituio final. Esta matria ainda se trata de
assunto de pesquisa.
7. Concluses
Neste texto, apresentamos alguns dos conceitos bsicos que compem o
estudo da semitica, segundo Charles Morris. Diversos conceitos foram extrapolados
de sua aplicao em seres humanos ou animais, trocando sua descrio abstrata por
uma descrio matemtica mais robusta, capaz de ser implementada por sistemas
artificiais. Por fim, implementou-se em si um prottipo de tal sistema, utilizando a
plataforma das redes neurais, de modo a validar a possibilidade da criao de sistemas
artificiais que sigam as propriedades de sistemas inteligentes evidenciadas pela
semitica. bvio que este modelo ainda incipiente, e existe um largo caminho a
percorrer, de modo a gerar sistemas artificiais que exibam um comportamento
realmente inteligente. Entretanto, a inteno dos autores com este texto no
apresentar simplesmente este modelo, mas indicar o estudo da semitica como uma
fonte interessante de conhecimentos na caracterizao do que seria e como seria um
sistema inteligente.
Existem ainda uma srie de problemas a serem endereados, e que no foram
ainda bem equacionados, nem mesmo pelos presentes estudiosos da semitica. Tais
problemas incluem: o uso de signos de ao, e de sua ligao com outro signos do
contexto; o estudo e melhor determinao do comportamento dos ndices; o uso de
signos que atuam sobre o significado de outros signos; o problema de se utilizar
sensores mveis, que incorporam uma dimenso de lugar ao sistema inteligente,
fazendo com que tais sistemas possam "focalizar" estes sensores em objetos de
interesse, e mesmo reconhecer a unicidade objetos diante de diferentes enfoques de
sensores; a interao entre dois ou mais sistemas inteligentes; e muitos outros cuja
listagem se faria por demais alongada. Entretanto, em todos estes problemas,
sentimento dos autores que uma anlise pelo enfoque da semitica seria de muito
maior proveito do que uma anlise independente para cada problema. Esperamos com
este texto, ter ilustrado portanto as potencialidades do uso da semitica na
caracterizao e especificao de sistemas inteligente, do mesmo modo que abrindo
uma frente nova de trabalho na busca do entendimento do fenmeno da inteligncia.