Vous êtes sur la page 1sur 26

Mentes, crebros e programas

John Searle

Que importncia filosfica e psicolgica devemos atribuir aos recentes esforos


aplicados na simulao computacional das capacidades cognitivas humanas? Ao
responder a esta questo, creio ser til distinguir aquilo a que chamarei IA
(inteligncia artificial) forte da IA fraca ou cautelosa. De acordo com a IA
fraca, o principal valor do computador no estudo da mente dar-nos uma poderosa
ferramenta. Permite-nos, por exemplo, formular e testar hipteses de uma maneira
mais precisa. Mas de acordo com a IA forte, o computador no meramente uma
ferramenta no estudo da mente; ao invs, o computador adequadamente
programado realmente uma mente, no sentido em que se pode literalmente
afirmar que, dados os programas adequados, os computadores compreendem e
tm outros estados cognitivos. Na IA forte, porque o computador programado tem
estados cognitivos, os programas no so meramente ferramentas que nos
permitem testar explicaes psicolgicas; o que se passa que os programas so
eles prprios as explicaes.
Nada tenho a objectar s afirmaes da IA fraca, pelo menos no que diz respeito a
este artigo. A discusso que fao aqui dirige-se s afirmaes que defini como
sendo as da IA forte, em especial a afirmao de que o computador adequadamente
programado tem literalmente estados cognitivos e que, por isso, os programas
explicam a cognio humana. Quando doravante me referir IA, terei em mente a
verso forte, como se exprime nestas duas afirmaes.
Tomarei em considerao a obra de Roger Schank e dos seus colegas em Yale
(Schank e Abelson, 1977), porque estou mais familiarizado com esta do que com
quaisquer outras afirmaes similares e porque ela fornece um exemplo muito claro
do tipo de trabalho que pretendo examinar. Mas nada do que se segue depende dos
detalhes dos programas de Schank. Os mesmos argumentos aplicar-se-iam ao
SHRDLU de Winograd (Winograd, 1973), ao ELIZA de Weizenbaum (Weizenbaum,
!

'1*!

1965) e, com efeito, a qualquer simulao de fenmenos mentais humanos numa


mquina de Turing.
Muito resumidamente, deixando de fora os diversos detalhes, pode-se descrever do
seguinte modo o programa de Schank: o objectivo do programa simular a
capacidade humana de compreender histrias. caracterstico da capacidade que
os seres humanos tm para compreender histrias o facto de poderem responder a
perguntas acerca destas, ainda que a informao que dem nunca tenha ocorrido
explicitamente na narrativa. Assim, por exemplo, suponha que lhe contam a
seguinte histria: Um homem foi a um restaurante e pediu um hambrguer.
Quando o hambrguer chegou estava esturricado e o homem saiu do restaurante
furioso, sem pagar pelo hambrguer ou deixar gorjeta. Agora, se lhe perguntarem
O homem comeu o hambrguer? presumivelmente ir responder No, no
comeu. De modo similar, se lhe contarem a seguinte histria: Um homem entrou
num restaurante e pediu um hambrguer; quando o hambrguer chegou o homem
ficou muito agradado e ao sair do restaurante deu empregada uma gorjeta
generosa antes de pagar a conta e lhe perguntarem: O homem comeu o
hambrguer? presumivelmente ir responder Sim, ele comeu o hambrguer. As
mquinas de Schank respondem de modo similar a perguntas acerca de
restaurantes. Para fazer isto, tm uma representao do tipo de informao que
os seres humanos tm acerca de restaurantes, o que lhes permite responder a
perguntas como as mencionadas, dado este tipo de histrias. Quando se d a
histria mquina e se lhe faz uma pergunta, a mquina imprimir respostas do tipo
que esperaramos ouvir de seres humanos, se lhes contssemos histrias
semelhantes. Os partidrios da IA forte afirmam que nesta sequncia de pergunta e
resposta a mquina no est apenas a simular uma capacidade humana mas
tambm 1) que podemos literalmente afirmar que a mquina compreende a histria
e fornece respostas a perguntas e 2) que a mquina e o seu programa explicam a
capacidade humana para compreender a histria e responder a perguntas acerca
dela.
Parece-me que nenhuma das afirmaes apoiada pelo trabalho de Schank, como
procurarei mostrar no que se segue. No estou, obviamente, a afirmar que o prprio
Schank defende estas afirmaes.
!

')1!

Um modo de testar qualquer teoria da mente perguntar a mim prprio como seria
se a minha mente funcionasse efectivamente com base nos princpios nos quais a
teoria afirma que se baseia o funcionamento de todas as mentes. Apliquemos este
teste ao programa de Schank com o seguinte Gedankenexperiment194.* Suponha-se
que estou fechado num quarto e me do uma sequncia enorme de caracteres
chineses. Suponha-se alm disso (como na verdade o caso) que no entendo seja
o que for de chins, escrito ou falado, e que no estou seguro de conseguir
diferenciar a escrita chinesa de, por exemplo, escrita japonesa ou de garatujas sem
sentido. Para mim, a escrita chinesa e um monte de garatujas sem sentido vo dar
ao mesmo. Suponha-se agora que aps esta primeira sequncia de caracteres
chineses me do uma segunda sequncia de caracteres chineses juntamente com
um conjunto de regras para correlacionar a segunda sequncia com a primeira. As
regras esto em portugus e eu compreendo-as to bem como qualquer outro
falante nativo do portugus. Elas permitem-me correlacionar um conjunto de
smbolos formais com outro conjunto de smbolos formais e tudo o que formal
significa aqui que se pode identificar os smbolos apenas pelo seu aspecto.
Suponha-se agora que tambm me do uma terceira sequncia de smbolos
chineses juntamente com algumas instrues, novamente em portugus, que me
permitem correlacionar elementos desta terceira sequncia com as primeiras duas
sequncias e que estas regras me ensinam a devolver certos smbolos chineses
com certos tipos de figura, em resposta a certos tipos de figura que me foram dados
na terceira sequncia. Sem que eu saiba, as pessoas que me do todos estes
smbolos chamam primeira sequncia um guio, chamam segunda sequncia
uma histria e terceira perguntas. Alm disso, chamam aos smbolos que
lhes devolvo em resposta terceira sequncia respostas s perguntas e ao
conjunto de regras em portugus que me deram chamam programa. Agora, s
para complicar um pouco a histria, imagine-se que estas pessoas tambm me
deram histrias em portugus, que compreendo, e depois me fizeram perguntas em
portugus acerca destas histrias e que lhes dou respostas em portugus.
Suponha-se tambm que, ao fim de algum tempo, me torno to bom a seguir as
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
194

Em alemo no original: Experincia mental. N do T.

"

'))!

instrues para manipular os smbolos chineses e os programadores se tornam to


bons a escrever os programas, que do ponto de vista externo isto , do ponto de
vista de algum que est fora do quarto no qual estou trancado as minhas
respostas s perguntas so absolutamente indistinguveis das de outros falantes
nativos do portugus, pela simples razo de que sou um falante nativo do
portugus. Do ponto de vista externo do ponto de vista de algum que l as
minhas respostas as respostas s perguntas em chins e s perguntas em
portugus so igualmente boas. Mas no caso chins, ao contrrio do portugus,
apresento as respostas manipulando smbolos formais que no foram interpretados.
No que diz respeito ao chins, comporto-me simplesmente como um computador:
executo operaes computacionais sobre elementos formalmente especificados. No
que diz respeito ao chins, sou simplesmente uma instanciao de um programa de
computador. Ora, as afirmaes que a IA forte faz so que o computador
programado compreende as histrias e que o programa explica de algum modo o
entendimento humano. Mas ns estamos agora em posio de examinar estas
afirmaes luz da nossa experincia mental.

1 Quanto primeira afirmao, parece-me bastante bvio, no exemplo, que eu


no compreendo uma nica palavra das histrias chinesas. Tenho inputs e outputs
[dados de entrada e dados de sada] que so indistinguveis dos que tem um falante
nativo do chins e posso ter qualquer programa formal que se queira, mas continuo
sem perceber patavina. Pelas mesmas razes, o computador de Schank nada
compreende de quaisquer histrias, seja em chins, portugus, ou qualquer outra
lngua, pois no exemplo chins sou eu o computador e nos exemplos em que no
sou eu o computador, este nada mais tem do que eu tenho no exemplo em que no
compreendo coisa alguma.
2 No que respeita segunda afirmao, a de que o programa explica o
entendimento humano, podemos ver que o computador e o seu programa no
fornecem condies suficientes para o entendimento uma vez que o computador e o
programa esto a funcionar e no h qualquer entendimento. Mas ser que
fornecem sequer uma condio necessria ou uma contribuio significativa para o
entendimento? Uma das afirmaes feitas pelos defensores da IA forte que
!

')"!

quando eu compreendo uma histria em portugus o que fao exactamente o


mesmo ou talvez mais do mesmo que fazia ao manipular os smbolos
chineses. O que distingue o exemplo em portugus, em que eu compreendo, do
exemplo em chins, em que eu no compreendo, simplesmente mais manipulao
formal de smbolos. No demonstrei que esta afirmao falsa, mas pareceria
seguramente uma afirmao incrvel neste exemplo. A plausibilidade que a
afirmao tem deriva da suposio de que podemos construir um programa que ter
os mesmos inputs e outputs que os falantes nativos e, alm disso, pressupomos
que os falantes tm algum nvel de descrio em que tambm eles so
instanciaes de um programa. Com base nestas duas pressuposies presumimos
que mesmo que o programa de Schank no nos d tudo o que h para saber acerca
do entendimento, poder fazer parte disso. Bem, suponho que esta uma
possibilidade emprica, mas at agora no foi apresentada a mnima razo para
acreditar que seja verdadeira, uma vez que aquilo que sugerido embora
certamente no demonstrado pelo exemplo que o programa de computador
simplesmente irrelevante para o meu entendimento da histria. No exemplo do
chins tenho tudo aquilo que a inteligncia artificial me pode dar atravs de um
programa e nada compreendo; no exemplo do portugus compreendo tudo e no h
at agora qualquer razo para supor que o meu entendimento tem algo a ver com
programas de computador, isto , com operaes computacionais sobre elementos
formalmente especificados. Enquanto o programa for definido em termos de
operaes computacionais sobre meros elementos formalmente definidos, o que o
exemplo sugere que por si prprios os programas no tm qualquer conexo
interessante com o entendimento. No so certamente condies suficientes e no
foi dada a mnima razo para supor que so condies necessrias ou mesmo que
do um contributo significativo para o entendimento. Repare-se que a fora do
argumento no est apenas no facto de diversas mquinas poderem ter os mesmos
inputs e outputs ao mesmo tempo que funcionam com princpios formais diferentes
no essa, de todo em todo, a questo. Pelo contrario, quaisquer que sejam os
princpios puramente formais que se introduza no computador, eles no sero
suficientes para o entendimento, uma vez que um humano seria capaz de seguir os
princpios formais sem compreender seja o que for. No foi apresentada qualquer
razo para supor que quando eu compreendo o portugus estou a operar com
qualquer programa formal que seja.
!

').!

Ento, o que que eu tenho no caso das frases portuguesas, que no tenho no
caso das frases chinesas? A resposta bvia que eu sei o que as primeiras
significam, ao passo que no fao a mnima ideia do que significam as ltimas. Mas
em que consiste isto e por que no poderamos d-lo a uma mquina, seja o que
for? Regressarei a esta questo mais tarde, mas primeiro quero continuar com o
exemplo.
J tive ocasio de apresentar este exemplo a diversas pessoas que trabalham em
inteligncia artificial e, curiosamente, eles no parecem estar de acordo sobre a
resposta adequada a dar. Obtenho uma variedade surpreendente de respostas e no
que se segue tomarei em considerao as mais comuns (especificadas juntamente
com a sua origem geogrfica).
Mas

primeiro

quero

bloquear

alguns

mal-entendidos

comuns

acerca

do

entendimento: em muitas destas discusses encontra-se bastante jogo de cintura


a propsito da palavra entendimento. Os meus crticos sublinham que h muitos
graus diferentes de entendimento; que entendimento no um predicado didico
simples; que h mesmo tipos e nveis diferentes de entendimento e frequentemente
a lei do terceiro excludo nem sequer se aplica de um modo directo a afirmaes da
forma x compreende y; que em muitos casos uma questo de deciso e no
apenas uma questo de facto saber se x compreende y; e por a em diante. A tudo
isto quero responder: claro, claro. Mas no tem a ver com o que est em discusso.
H casos ntidos em que entendimento tem aplicao literal e casos ntidos em
que no tem; e estes dois tipos de caso so tudo o que preciso para este
argumento195. Compreendo histrias em portugus; consigo compreender, no to
bem, histrias em francs, ainda menos em alemo e em chins nem uma palavra.
O meu carro e a minha mquina de calcular, por outro lado, nada compreendem:
no esto nessa linha de actividade. Atribumos com frequncia entendimento e
outros predicados cognitivos, por metfora e analogia, a carros, mquinas de
calcular, e outros artefactos, mas estas atribuies no provam coisa alguma.
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
)*/

!Alm disso, entendimento implica quer a posse de estados mentais (intencionais) quer a verdade (validade,
xito) destes estados. Para o que interessa a esta discusso, s nos preocupamos com a posse dos estados.
"
!

')'!

Dizemos A porta sabe quando abrir porque tem um sensor fotoelctrico, A


mquina de calcular sabe como (compreende como, capaz de) fazer adies e
subtraces mas no divises e O termstato percepciona mudanas de
temperatura. A razo por que fazemos estas atribuies bastante interessante e
tem a ver com o facto de estendermos a nossa prpria intencionalidade aos
artefactos196; as nossas ferramentas so extenses dos nossos objectivos de modo
que achamos natural atribuir-lhes metaforicamente intencionalidade; mas julgo que
tais exemplos no quebram o gelo filosfico. O sentido em que uma porta
automtica compreende instrues atravs do seu sensor fotoelctrico no de
todo em todo o sentido em que compreendo o portugus. Se o sentido em que os
computadores

programados

de

Schank

compreendem

as

histrias

fosse

supostamente o sentido metafrico em que a porta compreende e no o sentido em


que compreendo o portugus, no valeria a pena discutir o assunto. Mas Newell e
Simon (1963) afirmam que o tipo de cognio que atribuem aos computadores
exactamente o mesmo que o dos seres humanos. Gosto da franqueza desta
afirmao e o tipo de afirmao que terei em conta. Argumentarei que, no sentido
literal, o computador programado compreende o mesmo que o carro e a mquina de
calcular compreendem, ou seja, rigorosamente nada. O entendimento do
computador no apenas (como o meu entendimento do alemo) parcial ou
incompleto: zero.
Passemos agora s objeces:
1) A resposta dos sistemas (Berkeley).
Embora seja verdade que o indivduo que est fechado no quarto no compreende
a histria, o facto que ele apenas parte de um sistema no seu todo e o sistema
completo compreende a histria. O indivduo tem sua frente um registo mais
amplo em que esto redigidas as regras, tem bastante papel de rascunho e lpis
para fazer clculos, tem bancos de dados de conjuntos de smbolos chineses.
Ora, no se est a atribuir o entendimento ao mero indivduo; ao invs, est-se a
atribui-lo a todo este sistema de que o indivduo faz parte.
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
:KH"

A intencionalidade por definio aquela caracterstica de certos estados mentais pela qual eles so
direccionados para ou acerca de objectos e estados de coisas no mundo. Assim, crenas, desejos, intenes, so
estados intencionais; formas no direccionadas de ansiedade e depresso no o so

')/!

A minha resposta teoria dos sistemas bastante simples: permita-se ao indivduo


interiorizar todos estes elementos do sistema. Ele memoriza as regras no registo e
os bancos de dados de smbolos chineses e faz todos os clculos na sua cabea. O
indivduo incorpora ento todo o sistema. No h nada no sistema que ele no
abranja. Podemos at livrar-nos do quarto e supor que ele trabalha no exterior.
Ainda assim, o indivduo nada compreende do chins e, a fortiori, nem o sistema,
porque nada h no sistema que no esteja no indivduo. Se ele no compreende
ento no h maneira de o sistema compreender porque o sistema apenas uma
parte do indivduo.
Na realidade, sinto-me algo envergonhado por dar at mesmo esta resposta teoria
dos sistemas pois a teoria parece-me desde logo muito implausvel. A ideia a de
que embora o indivduo no compreenda o chins, de algum modo a combinao
desse indivduo e dos pedaos de papel poderia compreender o chins. No me
fcil imaginar como poderia algum que no estivesse preso a uma ideologia sequer
considerar plausvel essa ideia. Ainda assim, penso que muitas pessoas que esto
comprometidas com a ideologia da IA forte se sentiro por fim inclinadas a afirmar
algo de muito semelhante a isto, pelo que proponho avanarmos um pouco mais.
De acordo com uma verso desta perspectiva, embora o homem no exemplo dos
sistemas interiorizados no compreenda o chins no mesmo sentido em que um
falante nativo do chins o compreende (porque, por exemplo, no sabe que a
histria se refere a restaurantes e hambrgueres, etc.), ainda assim o homem
como sistema de manipulao de smbolos formais compreende realmente o
chins. O subsistema do homem, que o sistema de manipulao de smbolos
formais para chins n devia ser confundido com o subsistema para o portugus.
Por isso h na verdade dois subsistemas no homem; um deles compreende o
portugus, o outro compreende o chins, e acontece apenas que os dois sistemas
pouco tm a ver um com o outro. Mas, tenciono responder, no s pouco tm a ver
um com o outro como nem sequer so remotamente semelhantes. O subsistema
que compreende o portugus (pressupondo que nos permitimos temporariamente
usar este jargo dos subsistemas) sabe que as histrias so acerca de
restaurantes e de comer hambrgueres, sabe que lhe fazem perguntas acerca de
restaurantes e que d respostas to bem como pode, fazendo diversas inferncias a
!

')3!

partir do contedo da histria, e por a em diante. Mas o sistema chins no sabe


nada disto. Ao passo que o subsistema portugus sabe que hambrgueres refere
hambrgueres, o subsistema chins sabe apenas que garatuja garatuja seguida
por gatafunho gatafunho. Tudo o que sabe que os diversos smbolos formais
so introduzidos num lado, manipulados de acordo com regras escritas em
portugus, e que do outro lado saem outros smbolos. O interesse do exemplo
original era argumentar que tal manipulao de smbolos no podia por si ser
suficiente para compreender o chins em qualquer sentido literal, porque o homem
podia escrever gatafunho gatafunho depois de ler garatuja garatuja sem
perceber coisa alguma de chins. E postular subsistemas no homem no responde
ao argumento, porque os subsistemas no esto, logo partida, melhor que o
homem: continuam sem ter seja o que for de remotamente semelhante ao que o
homem (ou subsistema) que falante de portugus tem. Com efeito, no exemplo
descrito, o subsistema chins apenas uma parte do subsistema portugus, uma
parte que se empenha numa manipulao de smbolos desprovida de sentido, feita
de acordo com regras escritas em portugus.
Perguntemo-nos o que supostamente motiva, antes de mais, a objeco dos
sistemas; isto , que base independente se supe que existe para se afirmar que o
agente tem de ter um subsistema no seu interior que compreende literalmente as
histrias em chins? Tanto quanto vejo, a nica base a de que, no exemplo, tenho
os mesmos inputs e outputs que os falantes nativos de chins e um programa que
vai de um a outro. Mas o propsito dos exemplos tem sido o de tentar mostrar que
isso no pode ser suficiente para o entendimento, no sentido em que compreendo
histrias em portugus, porque uma pessoa, e portanto um conjunto de sistemas
que constitui uma pessoa, podia ter a combinao certa de inputs, outputs e
programa e ainda assim no compreender coisa alguma no sentido relevante, literal,
em que compreendo o portugus. A nica motivao para afirmar que tem de haver
um subsistema em mim que compreende o chins que eu tenho um programa e
eu posso passar no teste de Turing; posso enganar os falantes nativos do chins.
Mas a adequao do teste de Turing precisamente um dos pontos em debate. O
exemplo mostra que podia haver dois sistemas, de tal modo que ambos passam
o teste de Turing mas apenas um tem entendimento; e contra isto no serve de
argumento afirmar que uma vez que ambos passam o teste de Turing ambos tm de
!

')+!

ter entendimento, uma vez que esta afirmao no capaz de responder ao


argumento de que o sistema em mim que compreende o portugus tem muito mais
que o sistema que meramente processa o chins. Resumindo, a objeco dos
sistemas cai simplesmente em petio de princpio ao insistir, sem argumentao,
que os sistemas tm de compreender o chins.
Alm disso, a objeco dos sistemas parece conduzir a consequncias que so
independentemente absurdas. Se concluirmos que tem de haver cognio em mim
com base no facto de eu ter um certo tipo de inputs e outputs e um programa entre
ambos, parece ento que se acabar por considerar cognitivos todo o tipo de
subsistemas que no o so. Por exemplo, h um nvel de descrio no qual o meu
estmago processa informao e instancia quaisquer programas de computador,
mas presumo que no queiramos afirmar que o meu estmago compreende seja o
que for (cf. Pylyshyn, 1980). Mas se aceitamos a objeco dos sistemas, difcil ver
como evitaremos afirmar que o estmago, o corao, o fgado, e por a em diante,
so todos subsistemas com entendimento, uma vez que no h meio privilegiado de
distinguir a motivao para afirmar que o subsistema chins compreende da de
afirmar que o estmago compreende. Por sinal, no se responde a isto afirmando
que o sistema chins tem informao como inouts e outputs e que o estmago tem
alimentos como dados de entrada e alimentos digeridos como dados de sada, uma
vez que do ponto de vista do agente, do meu ponto de vista, no h informao
quer na comida quer nos caracteres chineses o chins equivale aqui a garatujas
sem sentido. A informao, no exemplo do chins, est apenas no olhar dos
programadores e dos intrpretes, e nada os impede de tratar os dados de entrada e
de sada dos meus rgos digestivos como informao, se assim o desejarem.
Este ltimo ponto influi em alguns problemas independentes da IA forte e vale a
pena fazer uma digresso por um momento para o explicar. Se a IA forte faz parte
da psicologia, ento tem de ser capaz de distinguir os sistemas que so
genuinamente mentais dos que no o so. Tem de ser capaz de distinguir os
princpios com os quais a mente funciona daqueles com que funcionam os sistemas
que no so mentais; de contrrio no nos oferecer explicaes acerca do que
especificamente mental acerca do mental. E a distino mental-no mental no
pode apenas estar no olhar do observador mas tem de ser intrnseca aos sistemas;
!

')4!

de contrrio caberia a cada observador tratar as pessoas como no mentais e, por


exemplo, os ciclones como mentais se lhe aprouvesse. Mas na bibliografia da IA a
distino com muita frequncia esbatida de maneiras que a longo prazo se
mostrariam desastrosas para a afirmao de que a IA um inqurito cognitivo.
McCarthy, por exemplo, afirma: Pode dizer-se que as mquinas simples como os
termstatos tm crenas e ter crenas parece ser uma caracterstica, na sua
maioria, das mquinas capazes de resolver problemas. (McCarthy, 1979). Quem
quer que pense que a IA forte tem alguma hiptese como teoria da mente devia
ponderar as implicaes deste comentrio. Convidam-nos a aceitar como uma
descoberta da IA forte que o pedao de metal na parede, que usamos para regular a
temperatura, tem crenas exactamente no mesmo sentido que ns, os nossos
cnjuges, as nossas crianas, temos crenas e que alm disso, na sua maioria,
as outras mquinas que esto no quarto o telefone, o gravador de cassetes, a
mquina de calcular, o electric fight switch tambm tm crenas neste sentido
literal. O objectivo deste artigo no argumentar contra o ponto de vista de
McCarthy, pelo que irei simplesmente afirmar o que se segue sem argumento. O
estudo da mente comea com factos como: que os humanos tm crenas, ao passo
que os termstatos, telefones e mquinas de calcular no as tm. Se temos uma
teoria que nega este ponto, produzimos um contra-exemplo teoria e a teoria
falsa. Ficamos com a impresso de que as pessoas envolvidas na IA que escrevem
este tipo de coisa pensam poder safar-se com isso porque no levam realmente a
srio o que esto a dizer e tambm no pensam que mais algum o far. Proponho,
ao menos por um momento, que levemos a srio o que est a ser dito. Pensemos
arduamente por um minuto sobre o que seria necessrio para estabelecer que
aquele pedao de metal na parede ali tem crenas a srio, crenas com direco de
adequao, contedo proposicional, condies de satisfao; crenas com a
possibilidade de serem fortes ou fracas; crenas nervosas, ansiosas ou seguras;
dogmticas, racionais ou supersticiosas; f cega ou cogitaes hesitantes, qualquer
tipo de crenas. O termstato no um candidato. To-pouco o o estmago, o
fgado, a mquina de calcular, o telefone. Contudo, uma vez que tomamos a ideia a
srio, repare-se que a sua verdade seria fatal para a pretenso da IA forte em ser
uma cincia da mente. Pois agora a mente est em todo o lado. O que queramos
saber era o que distingue a mente dos termstatos e fgados. E se McCarthy tivesse
razo, a IA forte no teria a mais leve esperana de nos dizer o que .
!

')*!

2) A resposta do Rob (Yale).


Suponha-se que escrevamos um tipo de programa diferente do de Schank.
Suponha-se que colocamos um computador dentro de um rob e que este
computador no se limitaria a aceitar smbolos formais como inputs e a emitir
smbolos formais como outputs, mas que, ao invs, manobraria realmente o rob de
tal modo que este faria algo muito semelhante a percepcionar, caminhar, mover-se
de um lado para o outro, pregar pregos, comer, beber o que se queira. O rob
teria, por exemplo, uma cmara de vdeo integrada que lhe permitiria ver, teria
braos e pernas que lhe permitiriam agir e tudo isto seria controlado pelo seu
crebro computorizado. Tal rob, ao contrrio do computador de Schank, teria
entendimento genuno e outros estados mentais.
A primeira coisa a notar acerca da resposta do rob que ela concede tacitamente
que a cognio no apenas uma questo de manipular smbolos formais, dado
que esta resposta acrescenta um conjunto de relaes causais com o mundo
exterior (cf. Fodor, 1980). Mas a resposta rplica do rob que a adio de tais
capacidades perceptivas e motoras nada acrescenta a propsito do
entendimento em particular ou da intencionalidade em geral, ao programa original
de Schank. Para ver isto, repare-se que a mesma experincia mental se aplica ao
caso do rob. Suponha-se que em vez do computador dentro do rob, me colocam
a mim dentro do quarto e, como no exemplo original do chins, me do mais
smbolos chineses com mais instrues em portugus para combinar smbolos
chineses com smbolos chineses e reenviar smbolos chineses para o exterior.
Suponha-se que, sem eu saber, alguns dos smbolos chineses que me fazem
chegar vm de uma cmara de vdeo integrada no rob e que outros smbolos
chineses que fao sair servem para fazer que os motores instalados no interior do
rob lhe movam as pernas ou os braos. importante sublinhar que tudo o que fao
manipular smbolos formais: nada sei acerca dos outros factos. Recebo
informao vinda do equipamento perceptivo do rob e emito instrues ao
seu equipamento motor sem ter conhecimento de qualquer destes factos. Sou o
homnculo do rob, mas ao contrrio do homnculo tradicional, no sei o que se
passa. Nada compreendo excepto as regras para a manipulao de smbolos. Neste
!

'"1!

caso quero dizer que o rob no tem quaisquer estados intencionais de todo em
todo; apenas se move de um lado para o outro em resultado dos seus circuitos
elctricos e do seu programa. E alm disso, ao instanciar o programa no tenho
quaisquer estados intencionais do tipo relevante. Tudo o que fao seguir
instrues formais acerca da manipulao de smbolos formais.
3) A resposta do simulador de crebros (Berkeley e MIT).
Suponha-se que concebemos um programa que no representa a informao que
temos acerca do mundo, como a informao nas sequncias de caracteres de
Schank, mas que simula a sequncia efectiva do disparar de neurnios nas
sinapses do crebro de um falante nativo de chins quando este compreende
histrias em chins e responde a perguntas acerca delas. A mquina recebe
histrias e perguntas acerca destas como inputs, simula a estrutura formal de
crebros chineses efectivos ao processar estas histrias e emite respostas em
chins como outputs. Podemos at imaginar que a mquina no funciona com um
nico programa serial mas com todo um conjunto de programas funcionando em
paralelo, do modo como presumivelmente funcionam os crebros humanos
efectivos quando processam a linguagem natural. Agora, seguramente que nesse
caso teramos de dizer que a mquina compreende as histrias. E, se nos
recusarmos a diz-lo, no teramos tambm de negar que os falantes nativos do
chins compreendem as histrias? Ao nvel das sinapses, o que seria ou poderia
ser diferente no programa de computador e no programa do crebro chins?
Antes de rebater esta objeco quero fazer um desvio para notar que se trata de
uma objeco bizarra para qualquer partidrio da inteligncia artificial (ou
funcionalismo, etc.): pensei que a ideia da IA forte fosse a de no precisar de saber
como o crebro funciona para saber como a mente funciona. A hiptese bsica, ou
assim supus, era a de que h um nvel das operaes mentais que consiste em
processos computacionais sobre elementos formais que constituem a essncia do
mental e podem ser concretizados em todo o tipo de processos cerebrais diferentes,
do mesmo modo que qualquer programa de computador pode ser concretizado em
diferentes equipamentos informticos: com os pressupostos da IA forte, a mente
para o crebro o que o programa para o hardware e assim podemos compreender
!

'")!

a mente sem fazer neurofisiologia. Se tivssemos de saber como o crebro


funcionava para fazer a IA no teramos de nos preocupar com a IA. Contudo,
mesmo chegar to perto do funcionamento do crebro no ainda suficiente para
produzir o entendimento. Para se ver isto, imagine-se que ao invs de um homem
monolingue a reordenar smbolos dentro de um quarto temos o homem a manobrar
um conjunto elaborado de tubagens de gua, com vlvulas a conect-las. Quando o
homem recebe os smbolos chineses vai ver ao programa, escrito em portugus,
que vlvulas tem de ligar e desligar. Cada ligao na tubagem de gua corresponde
a uma sinapse no crebro chins e todo o sistema est instalado de modo a que
depois de iniciar todos os disparos correctos, isto , depois de ligar todas as
torneiras correctas, as respostas chinesas surgem na porta de sada da srie de
tubos.
Onde est o entendimento neste sistema? Recebe chins como input, simula a
estrutura formal das sinapses de um crebro chins e devolve chins como output.
Mas decerto nem o homem nem a tubagem de gua compreendem o chins e se
nos sentimos tentados a adoptar o que julgo ser a perspectiva absurda de que, de
algum modo, a combinao de homem e tubagem tem entendimento, lembremo-nos
de que em princpio o homem pode interiorizar a estrutura formal da tubagem e
fazer todos os disparos neurais na sua imaginao. O problema com o simulador
de crebros simular as coisas erradas a respeito do crebro. Enquanto apenas
simular a estrutura formal da sequncia de disparos neurais nas sinapses, no ter
simulado o que importa a respeito do crebro, nomeadamente, as propriedades
causais, a sua capacidade de produzir estados intencionais. E que as propriedades
formais no so suficientes para as propriedades causais v-se pelo exemplo da
tubagem: podemos ter todas as propriedades formais destacadas das propriedades
causais, neurobiolgicas, relevantes.
4) A resposta da combinao (Berkeley e Stanford).
Ao passo que cada uma das trs objeces anteriores pode no ser inteiramente
convincente em si como refutao do contra-exemplo do quarto chins, as trs
tomadas em conjunto so colectivamente mais convincentes e mesmo decisivas.
Imagine-se um rob com um computador em forma de crebro alojado na sua
!

'""!

cavidade craniana, imagine-se o computador programado com todas as sinapses de


um crebro humano, imagine-se que todo o comportamento do rob indistinguvel
do comportamento humano e agora pense-se em tudo isso como um sistema
unificado e no apenas como um computador com inputs e outputs. Certamente que
em tal caso teramos de atribuir intencionalidade ao sistema.
Concordo inteiramente que em tal caso acharamos racional e de facto irresistvel
aceitar a hiptese de que o rob tem intencionalidade, desde que nada mais
soubssemos acerca do mesmo. De facto, para alm da aparncia e do
comportamento, os outros elementos da combinao so na verdade irrelevantes.
Se pudssemos construir um rob cujo comportamento fosse indistinguvel de um
vasto leque de comportamentos humanos, atribuir-lhe-amos intencionalidade, at
termos

alguma

razo

para

no

fazer.

No

precisaramos

de

saber

antecipadamente que o seu crebro computorizado era um anlogo formal do


crebro humano.
Mas no creio realmente que isto ajude seja no que for as afirmaes da IA forte e
eis porqu: de acordo com a IA forte, instanciar um programa formal com os dados
de entrada e de sada correctos uma condio suficiente e deveras constitutiva da
intencionalidade. Nas palavras de Newell (1979), a essncia do mental o
funcionamento de um sistema de smbolos formais. Mas as atribuies de
intencionalidade que fazemos ao rob neste exemplo nada tm a ver com
programas formais. Baseiam-se simplesmente na pressuposio de que se o rob
se parece e se comporta suficientemente como ns, ento suporamos, at se
provar o contrrio, que tem de ter estados mentais como os nossos, que causam o
seu comportamento e neste se manifestam, e que tem de ter um mecanismo interno
capaz de produzir tais estados mentais. Se soubssemos como explicar
independentemente o seu comportamento sem tais pressuposies, no lhe
atribuiramos a intencionalidade, especialmente se soubssemos que tinha um
programa formal. E isto precisamente o que quero dizer com a minha resposta
anterior objeco 2).
Suponhamos que sabamos que o comportamento do rob se explicava
inteiramente pelo facto de que um homem colocado no seu interior recebia smbolos
!

'".!

formais ininterpretados a partir dos receptores sensoriais do rob e emitia smbolos


formais aos seus mecanismos motores e que o homem fazia esta manipulao de
smbolos de acordo com um punhado de regras. Alm disso, suponhamos que o
homem desconhece todos estes factos acerca do rob, tudo o que sabe que
operaes executar sobre que smbolos desprovidos de sentido. Nesse caso
veramos o rob como um engenhoso boneco mecnico. A hiptese de que o
boneco tem uma mente seria agora injustificada e desnecessria, pois no h mais
razo alguma para atribuir intencionalidade ao rob, ou ao sistema de que faz parte,
(excepto, claro, pela intencionalidade do homem ao manipular os smbolos). As
manipulaes de smbolos formais prosseguem, os dados de entrada e de sada
so correctamente articulados, mas o nico verdadeiro locus da intencionalidade o
homem e ele desconhece quaisquer dos estados intencionais relevantes; no v,
por exemplo, o que chega aos olhos do rob, no tenta mover o brao do rob e
no compreende quaisquer dos comentrios feitos para ou pelo rob. To-pouco,
pelas razes apresentadas antes, o sistema de que fazem parte o homem e o
rob que faz estas coisas.
Para ver este ponto, contraste-se o exemplo com outros em que achamos
inteiramente natural atribuir intencionalidade a membros de determinadas espcies
de primatas, como o chimpanz e o babuno197,* e a animais domsticos, como os
ces. As razes que consideramos naturais so, grosso modo, duas: no podemos
compreender o comportamento do animal sem a atribuio de intencionalidade e
podemos ver que a matria de que so feitos os bichos similar de que somos
feitos isto um olho, aquilo um nariz, isto a sua pele, e por a em diante. Dada
a coerncia do comportamento do animal e o pressuposto de que lhe subjaz a
mesma matria causal, pressupomos que o animal tem de ter estados mentais
subjacentes ao seu comportamento e que os estados mentais tm de ser
produzidos por mecanismos feitos de uma matria semelhante de que somos
feitos. Faramos certamente pressuposies semelhantes acerca do rob a menos
que tivssemos alguma razo para no o fazer, mas assim que soubssemos que o
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
:K9"

No original: ... other primate species such as apes and monkeys.... A distino aqui entre o smio
(primatas sem cauda: chimpanz, gorila, orangotango) e o macaco (primatas com cauda: babuno, saguim,
lmure). Uma vez que comum traduzir ape e monkey indiferentemente por macaco, a opo de usar
respectivamente chimpanz e babuno justifica-se por tornar o texto mais claro. N do T.

'"'!

comportamento era o resultado de um programa formal e que as propriedades


causais efectivas da substncia fsica eram irrelevantes abandonaramos a
pressuposio de intencionalidade.
H duas outras respostas ao meu exemplo que surgem frequentemente (de modo
que vale a pena discuti-las) mas que na verdade passam ao lado da questo.
5) A resposta das outras mentes (Yale).
Como sabe que as outras pessoas compreendem o chins ou outra coisa
qualquer? Apenas pelo seu comportamento. Ora o computador pode passar nos
testes comportamentais to bem como as pessoas (em princpio), de modo que se
vamos atribuir cognio a outras pessoas temos em princpio de a atribuir tambm
aos computadores.
Esta objeco merece na verdade apenas uma resposta curta. O problema nesta
discusso no como que eu sei que as outras pessoas tm estados cognitivos
mas antes o que que estou a atribuir-lhes quando lhes atribuo estados cognitivos.
O impulso do argumento que no se podia tratar apenas de processos
computacionais e dos seus dados de sada porque pode haver os processos
computacionais e os dados de sada sem que haja o estado cognitivo. No
resposta a este argumento fingir anestesia. Nas cincias cognitivas pressupe-se
a realidade e cognoscibilidade do mental do mesmo modo que nas cincias fsicas
se tem de pressupor a realidade e cognoscibilidade dos objectos fsicos.
6) A resposta das muitas divisrias [many mansions] (Yale).
Todo o seu argumento pressupe que a IA apenas acerca de computadores
analgicos e digitais. Mas acontece apenas que isso corresponde ao presente
estado da tecnologia. Sejam o que forem esses processos causais que diz serem
essenciais para a intencionalidade (pressupondo que est correcto), seremos
eventualmente capazes de construir aparelhos que tenham estes processos causais
e que sero inteligncia artificial. Pelo que os seus argumentos no se dirigem de

'"/!

modo algum capacidade da inteligncia artificial em produzir e explicar a


cognio.
Nada tenho realmente a objectar a esta objeco excepto dizer que, com efeito,
trivializa o projecto da IA forte redefinindo-o como seja o que for que produza
artificialmente a cognio e a explique. O interesse da afirmao original feita em
nome da inteligncia artificial o de ser uma tese precisa e bem definida: os
processos mentais so processos computacionais sobre elementos definidos
formalmente. Desafiar esta tese tem sido a minha preocupao. Se a afirmao
redefinida de tal modo que deixa de ser essa tese, as minhas objeces j no se
aplicam, porque deixou de haver uma hiptese testvel qual se apliquem.
Regressemos agora questo que prometi tentar responder: admitindo que no meu
exemplo original eu compreendo o portugus e no compreendo o chins e
admitindo-se portanto que a mquina no compreende nem o portugus nem o
chins, ainda assim tem de haver em mim algo que faz que seja o caso que eu
compreendo o portugus e uma correspondente ausncia em mim de algo que faz
que seja o caso que no consigo compreender o chins. Ora, por que no
poderamos dar essas coisas, sejam elas o que forem, a uma mquina?
No vejo qualquer razo por que no poderamos em princpio dar a uma mquina a
capacidade de compreender o portugus ou o chins, visto que, num sentido
importante, os nossos corpos, com os nossos crebros, so precisamente tais
mquinas. Mas vejo de facto argumentos muito importantes para afirmar que no
poderamos dar tal coisa a uma mquina cujo funcionamento se defina apenas em
termos de processos computacionais sobre elementos formalmente definidos; isto ,
em que o funcionamento da mquina definido como uma instanciao de um
programa de computador. No por eu ser a instanciao de um programa de
computador que sou capaz de compreender o portugus e de ter outras formas de
intencionalidade (Sou, suponho, a instanciao de quaisquer programas de
computador) mas, tanto quanto sabemos, por pertencer a um certo tipo de
organismo com uma certa estrutura biolgica (isto , qumica e fsica) e esta
estrutura, sob certas condies, causalmente capaz de produzir a percepo,
aco, entendimento, aprendizagem e outros fenmenos intencionais. E em parte a
!

'"3!

ideia do presente argumento a de que apenas algo que tivesse esses poderes
causais poderia ter intencionalidade. Talvez outros processos fsicos e qumicos
pudessem produzir exactamente estes efeitos; talvez, por exemplo, os marcianos
tambm tenham intencionalidade ainda que os seus crebros sejam feitos de uma
matria diferente. Essa uma questo emprica, semelhante questo de saber se
a fotossntese pode ser feita por algo com uma constituio qumica diferente da
que tem a clorofila.
Mas o ponto principal do presente argumento que nenhum modelo puramente
formal ser alguma vez suficiente em si para a intencionalidade porque as
propriedades formais no so por si prprias constitutivas da intencionalidade e no
tm por si prprias quaisquer poderes causais excepto o poder, quando instanciado,
de produzir a prxima etapa do formalismo quando a mquina est em
funcionamento.

quaisquer

outras

propriedades

causais

que

tenham

concretizaes particulares do modelo formal so irrelevantes para o modelo formal


porque podemos sempre pr o mesmo modelo formal numa concretizao diferente,
em que essas propriedades causais esto obviamente ausentes. Mesmo se, por
algum milagre, os falantes do chins concretizam exactamente o programa de
Schank, podemos pr o mesmo programa em falantes do portugus, tubagens, ou
computadores, sendo que nenhum destes compreende o chins, apesar do
programa.
O que importa acerca das operaes cerebrais no a sombra formal projectada
pela sequncia de sinapses mas antes as propriedades efectivas das sequncias.
Todos os argumentos em favor da verso forte da inteligncia artificial que tenho
visto insistem em traar um contorno em redor das sombras projectadas pela
cognio afirmando depois que as sombras so o produto genuno.
Em jeito de concluso, quero tentar afirmar algumas das questes filosficas gerais
implcitas no argumento. Em abono da clareza, procurarei faz-lo atravs da
pergunta e resposta e comeo por aquela j velha pergunta:
Poderia uma mquina pensar? A resposta , obviamente, sim. Somos
precisamente tais mquinas.
!

'"+!

Sim, mas poderia um artefacto, uma mquina feita pelo homem, pensar?
Pressupondo que possvel produzir artificialmente uma mquina com sistema
nervoso, neurnios com axnios e dendrites e tudo o mais, suficientemente parecido
com o nosso, mais uma vez a resposta parece ser, obviamente, sim. Se podemos
duplicar exactamente as causas, podemos duplicar os efeitos. E de facto poderia
ser possvel produzir a conscincia, a intencionalidade, e tudo o mais, usando
quaisquer outros tipos de princpios qumicos que no os que constituem os seres
humanos. , como disse, uma questo emprica.
Ok, mas poderia um computador digital pensar?
Se por computador digital entendemos qualquer coisa que tenha um nvel de
descrio em que possa ser correctamente descrita como a instanciao de um
programa de computador, ento a resposta uma vez mais, obviamente, sim, uma
vez que somos a instanciao de quaisquer programas de computador e podemos
pensar.
Mas poderia algo pensar, compreender, e por a em diante, apenas em virtude de
ser um computador com o tipo correcto de programa? Poderia a instanciao de um
programa, o programa correcto, claro, ser em si uma condio suficiente para o
entendimento?
Penso que esta a questo certa a colocar, embora normalmente se confunda com
uma ou outra das questes anteriores, e a resposta no.
Por que no?
Porque as manipulaes de smbolos formais por si prprias no tm qualquer
intencionalidade; so inteiramente desprovidas de sentido; no so sequer
manipulaes de smbolos, uma vez que os smbolos no simbolizam coisa alguma.
No jargo lingustico, tm apenas uma sintaxe mas nenhuma semntica. Tal
intencionalidade que os computadores aparentam ter est apenas nas mentes dos
!

'"4!

que os programam e nas dos que os usam, que so quem fornece os dados de
entrada e interpreta os dados de sada.
O objectivo do exemplo do quarto chins era tentar mostrar isto mostrando que
assim que colocamos no sistema algo que tenha realmente intencionalidade (um
homem) e o programamos com o programa formal, pode-se ver que o programa
formal no traz qualquer intencionalidade adicional. Nada acrescenta, por exemplo,
capacidade que o homem tem de compreender o chins.
Precisamente aquela caracterstica da IA que parecia to apelativa a distino
entre o programa e a realizao mostra-se fatal para a afirmao de que
simulao podia ser duplicao. A distino entre o programa e a sua realizao no
hardware parece ser paralela distino entre o nvel das operaes mentais e o
nvel das operaes cerebrais. E se pudssemos descrever o nvel das operaes
mentais como um programa formal, ento parece que podamos descrever o que
seria essencial acerca da mente sem fazer quer psicologia introspectiva quer
neurofisiologia do crebro. Mas a equao a mente para o crebro o que o
programa para o hardware soobra em vrios pontos, entre eles os seguintes
trs:
Em primeiro lugar, a distino entre programa e realizao tem a consequncia de
que o mesmo programa podia ter todo o tipo de realizaes malucas que no
tivessem qualquer forma de intencionalidade. Weizenbaum (1976, Cap. 2), por
exemplo, mostra em detalhe como construir um computador usando um rolo de
papel higinico e uma pilha de pequenos calhaus. Similarmente, o programa para
compreender a narrativa chinesa pode ser programado numa sequncia de
tubagens, num conjunto de ventoinhas, ou num falante monolingue de portugus,
nenhum dos quais obtm uma compreenso do chins. Pedras, papel higinico,
vento, tubagens, so desde logo o tipo inadequado de coisa para se obter a
intencionalidade s algo que tenha os mesmos poderes causais que os crebros
pode ter intencionalidade e embora o falante de portugus tenha o tipo adequado
de matria para a intencionalidade pode-se ver facilmente que este no obtm
qualquer intencionalidade adicional por memorizar o programa, uma vez que
memorizar no lhe ensinar o chins.
!

'"*!

Em segundo lugar, o programa puramente formal, mas os estados intencionais


no so formais desse modo. Definem-se em termos do seu contedo, no da sua
forma. A crena de que est a chover, por exemplo, no se define como uma certa
forma [formal shape] mas como um certo contedo mental com condies de
satisfao, direco de adequao (ver Searle, 1979), e coisas semelhantes. Com
efeito, a forma como tal no tem sequer um aspecto formal neste sentido sintctico,
uma vez que se pode dar a uma nica crena um nmero indefinido de expresses
sintcticas diferentes em sistemas lingusticos diferentes.
Em terceiro lugar, como mencionei antes, os estados e eventos mentais so
literalmente produtos do funcionamento do crebro, mas o programa no , do
mesmo modo, um produto do computador.
Bem, se os programas no so, de modo algum, constitutivos dos processos
mentais, por que razo tem muita gente acreditado no contrrio? Isso pelo menos
precisa de alguma explicao.
No sei mesmo qual ser a resposta a esta ltima questo. A ideia de que as
simulaes de computador pudessem ser o produto genuno deveria ter parecido
partida suspeita porque o computador no est confinado, por quaisquer meios,
simulao

de

operaes

mentais.

Ningum

supe

que

as

simulaes

computorizadas de um incndio de grau 5 iro destruir a vizinhana ou que uma


simulao de computador de uma chuva torrencial nos far ficar encharcados. Por
que raios iria algum supor que uma simulao computorizada do entendimento tem
com efeito entendimento acerca de qualquer coisa? Diz-se por vezes que seria
assustadoramente difcil fazer que os computadores sintam dor ou se apaixonem,
mas o amor e a dor no so nem mais difceis nem mais fceis que a cognio ou
seja o que for. Para a simulao, tudo o que preciso so inputs e outputs e um
programa no meio, que transforma os primeiros nos segundos. Isso tudo o que o
computador tem para tudo o que faz. Confundir a simulao com a duplicao
fazer o mesmo erro, quer se trate de dor, amor, cognio, incndios, ou
tempestades.

'.1!

Ainda assim, h diversas razes por que tem de ter parecido e a muita gente
talvez ainda parea que de algum modo a IA reproduz e portanto explica os
fenmenos mentais e acredito que no conseguiremos remover estas iluses antes
de ter exposto integralmente as razes que lhes do origem.
Em primeiro lugar e sendo talvez o mais importante, est uma confuso acerca da
noo de processamento de informao: muita gente nas cincias cognitivas
acredita que o crebro humano, com a sua mente, faz algo a que se chama
processamento de informao e analogamente o computador com o seu
programa faz processamento de informao; mas os incndios e as tempestades,
por outro lado, no fazem qualquer processamento de informao. Assim, embora o
computador possa simular as caractersticas formais de qualquer processo que seja,
encontra-se numa relao especial com a mente e o crebro porque quando o
computador adequadamente programado, idealmente com o mesmo programa
que o crebro, o processamento da informao idntico nos dois casos e este
processamento de informao realmente a essncia do mental. Mas o problema
com este argumento repousar numa ambiguidade na noo de informao. No
sentido em que as pessoas processam informao quando reflectem, por
exemplo, em problemas de aritmtica, ou quando lem histrias e respondem a
perguntas acerca destas, o computador no faz processamento de informao.
Ao invs, o que faz manipular smbolos formais. O facto de o programador e o
intrprete dos dados de sada do computador usarem os smbolos para referir
objectos no mundo supera completamente o alcance do computador. O computador,
repetindo o que foi dito, tem sintaxe mas no tem semntica. Assim, se algum
teclar no computador 2 + 2 =? este responder 4. Mas no tem ideia de que
4 significa 4 ou que significa seja o que for. E a questo no que lhe falte
alguma informao de segunda ordem acerca da interpretao dos seus smbolos
de primeira ordem, mas antes que os seus smbolos de primeira ordem no tm
quaisquer interpretaes no que diz respeito ao computador. Tudo o que o
computador tem so mais smbolos. A introduo da noo de processamento de
informao

produz

portanto

um

dilema:

ou

interpretamos

noo

de

processamento de informao de tal modo que implique a intencionalidade como


parte do processo ou no o fazemos. No primeiro caso, ento o computador
programado no faz processamento de informao, apenas manipula smbolos
!

'.)!

formais. No segundo caso, ento, apesar de o computador fazer processamento de


informao, s o faz no sentido em que as mquinas de calcular, as mquinas de
escrever, os termstatos, as tempestades, os ciclones, fazem processamento de
informao; nomeadamente, tm um nvel de descrio em que se os pode
descrever como recebendo informao de um lado, transformando-a, e produzindo
informao como dados de sada. Mas neste caso cabe aos observadores externos
interpretar os dados de entrada e de sada como informao no sentido corrente. E
no se estabelece qualquer semelhana entre o computador e o crebro em termos
de qualquer semelhana de processamento de informao.
Em segundo lugar, h um behaviorismo ou operacionalismo residuais em muita da
IA. Uma vez que os computadores adequadamente programados podem ter
padres de input-output similares aos dos seres humanos, sentimo-nos tentados a
postular estados mentais no computador, similares aos estados mentais humanos.
Mas assim que se veja que conceptual e empiricamente possvel que um sistema
tenha capacidades humanas em algum domnio sem ter intencionalidade de todo
em todo, devamos ser capazes de superar este impulso. A minha calculadora de
secretria tem capacidades de clculo mas nenhuma intencionalidade e neste artigo
tentei mostrar que um sistema podia ter capacidades relativas a dados de entrada e
dados de sada que duplicassem as de um falante nativo do chins e ainda assim
no compreender o chins, a despeito do modo como foi programado. O teste de
Turing tpico da tradio de ser-se descaradamente behaviorista e operacionalista
e acredito que se as pessoas que trabalham em IA repudiassem o behaviorismo e o
operacionalismo, muita da confuso entre a simulao e a duplicao seria
eliminada.
Em terceiro lugar, este operacionalismo residual junta-se a uma forma residual de
dualismo; com efeito, a IA forte s faz sentido dada a pressuposio dualista de
que, no que diz respeito mente, o crebro no importa. Na IA forte (e tambm no
funcionalismo) o que importa so os programas e os programas so independentes
da sua concretizao nas mquinas; com efeito, no que diz respeito IA, o mesmo
programa podia ser concretizado por uma mquina electrnica, uma substncia
mental cartesiana, ou um hegeliano esprito do mundo. A nica descoberta
surpreendente que fiz ao discutir estes assuntos que muitas pessoas que
trabalham em IA se sentem muito chocadas pela minha ideia de que os efectivos
!

'."!

fenmenos mentais humanos podem ser dependentes de efectivas propriedades


fsico-qumicas dos crebros humanos efectivos. Mas se pensarmos nisto durante
um minuto podemos ver que eu no devia ter ficado surpreendido; pois a menos
que se aceite alguma forma de dualismo, o projecto da IA forte no tem qualquer
hiptese de singrar. O projecto consiste em reproduzir e explicar o mental atravs
do design de programas, mas a menos que a mente seja no s conceptualmente
mas tambm empiricamente independente do crebro, o projecto no poderia ser
levado a cabo, pois o programa completamente independente de qualquer
realizao. A menos que se acredite que a mente separvel do crebro quer
conceptualmente quer empiricamente dualismo num sentido forte no se pode
esperar reproduzir o mental escrevendo e executando programas, uma vez que os
programas tm de ser independentes dos crebros ou de quaisquer outras formas
particulares de instanciao. Se as operaes mentais consistem em operaes
computacionais sobre smbolos formais, ento segue-se que no tm qualquer
conexo interessante com o crebro; a nica conexo seria que o crebro, por
acaso, um dos indefinidamente muitos tipos de mquinas capazes de instanciar o
programa. Esta forma de dualismo no a tradicional variedade cartesiana, que
afirma que h dois tipos de substncia, mas cartesiana no sentido de que insiste
em que o que especificamente mental acerca da mente no tem uma conexo
intrnseca com as propriedades efectivas do crebro. Este dualismo subjacente
disfarado pelo facto de a bibliografia da IA conter amide tiradas fulminantes contra
o dualismo; aquilo de que os autores parecem no estar cientes que a sua
posio pressupe uma verso forte do dualismo. Poderia uma mquina pensar?
A minha prpria perspectiva a de que apenas uma mquina pode pensar e com
efeito apenas tipos muito especiais de mquinas, nomeadamente crebros e
mquinas que tenham os mesmos poderes causais que os crebros. E essa a
principal razo por que a IA forte tem pouco para nos dizer acerca do pensamento,
uma vez que nada tem para nos dizer acerca das mquinas. Pela sua prpria
definio, acerca de programas e os programas no so mquinas. Seja mais o
for a intencionalidade, ela um fenmeno biolgico e provvel que seja to
causalmente dependente da bioqumica especfica das suas origens como a
lactao, a fotossntese, ou quaisquer outros fenmenos biolgicos. Ningum
suporia que podemos produzir leite ou acar executando uma simulao
computorizada das sequncias formais na lactao e fotossntese, mas no que diz
!

'..!

respeito mente muitas pessoas esto dispostas a acreditar em tal milagre por
causa de um profundo e duradouro dualismo: supem que a mente uma questo
de processos formais e independente das causas materiais bastante especficas
de um modo que o leite e o acar no so. Em defesa deste dualismo exprime-se
fequentemente a esperana de que o crebro seja um computador digital. Uma vez
que tudo so computadores digitais, os crebros tambm o so. A questo que a
capacidade causal que o crebro tem para produzir a intencionalidade no pode
consistir no facto de instanciar um programa de computador, uma vez que para
qualquer programa que se queira possvel que algo instancie esse programa e
ainda assim no ter quaisquer estados mentais. Seja o que for que o crebro faz
para produzir a intencionalidade, isso no pode consistir na instanciao de um
programa visto que nenhum programa, por si prprio, suficiente para a
intencionalidade198 .

!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
198

Estou em dvida para com um nmero bastante elevado de pessoas pela discusso destes assuntos e pelas
suas tentativas pacientes de superar a minha ignorncia em inteligncia artificial. Gostaria em especial de
agradecer a Ned Block, Hubert Dreyfus, John Haugeland, Roger Schank, Robert Wilensky, e Terry Winograd.
"

'.'!

Vous aimerez peut-être aussi