Vous êtes sur la page 1sur 25

http://members.aol.com/NeoNoetics/MindsBrainsPrograms.

html

MENTES, CREBROS E PROGRAMAS.


John Searle.

Distingo entre Inteligncia Artificial no sentido forte e no sentido fraco. *) De


(

acordo com a IA no sentido forte, computadores adequadamente programados literalmente


tm estados cognitivos, e, assim sendo, programas so teorias psicolgicas. Argumento que
a IA no sentido forte deve ser falsa, uma vez que um agente humano poderia instanciar um
programa e, mesmo assim, no ter estados mentais. Examinarei alguns argumentos contra
esta afirmao e explorarei algumas conseqncias do fato de que o crebro de seres
humanos e de animais so a base causal da existncia de fenmenos mentais.
Que significado psicolgico e filosfico devemos atribuir aos esforos feitos
recentemente para simular capacidades cognitivas humanas atravs do computador? Para
responder esta questo considero til distinguir entre o que denomino de IA no sentido
"forte" e IA no sentido "fraco" ou "cautelosa". De acordo com a IA no sentido fraco, o
principal valor do computador para o estudo da mente reside no fato de que este nos
fornece uma ferramenta extremamente poderosa. Por exemplo, ele nos permite formular e
testar hipteses de maneira mais rigorosa e precisa do que antes. Mas de acordo com a IA
no sentido forte, o computador no meramente um instrumento para o estudo da mente.
Muito mais do que isso o computador adequadamente programado uma mente, no sentido
de que, se lhe so dados os programas corretos pode-se dizer que eles entendem e que eles
tm outros estados cognitivos. Conforme a IA no sentido forte, uma vez que o computador
programado tem estados cognitivos, os programas no so meros instrumentos que nos
(

1)

IA.

N. do Tradutor: o termo "Inteligncia Artificial" ser abreviado, daqui em diante por

capacitam testar explicaes psicolgicas : os programas constituem as prprias


explicaes. No tenho objees a IA no sentido fraco, pelo menos no que diz respeito ao
escopo deste artigo. Minha discusso ser dirigida s afirmaes que defini como
caracterizando a IA no sentido forte, especificamente a idia de que computadores
adequadamente programados tm estados cognitivos e que os programas, a partir disso,
explicam a capacidade cognitiva humana. Quando eu me referir a IA estarei considerando a
IA no sentido forte, definida atravs das duas afirmaes acima.
Analisarei o trabalho de Roger Schank e seus colegas em Yale (Cf. Schank
and Abelson, 1977), porque estou mais familiarizado com ele do que com outros trabalhos
semelhantes. Alm do mais, ele fornece um exemplo claro do tipo de trabalho que desejo
examinar. Mas nada do que apresento a seguir depende de detalhes do programa de Schank.
Os mesmos argumentos se aplicariam ao programa de Winograd (1972), SHRDLU, o
programa de Weizembaum ELIZA (1965) e a qualquer simulao de fenmenos mentais
humanos baseada na mquina de Turing.
Deixando de lado vrios detalhes, pode-se descrever o programa de Schank
da seguinte maneira: seu objetivo simular a habilidade humana de compreenso de
histrias. caracterstico na habilidade dos seres humanos para compreender histrias que
estes possam responder questes sobre elas, mesmo se a informao no estiver
explicitamente dada no texto. Neste caso, por exemplo, suponha que seja fornecida a
seguinte histria:
"Um homem foi a um restaurante e pediu um hambrguer. Quando o
hambrguer chegou, estava torrado, e o homem furioso saiu esbravejando do restaurante
sem pagar e nem deixar gorjeta".
Ora, se a seguinte questo for formulada: "O homem comeu o
hambrguer?", voc presumivelmente responder: "No, ele no comeu". Da mesma
maneira, se for dada a seguinte histria:
"Um homem foi a um restaurante e pediu um hambrguer; ao chegar o
pedido ficou bastante satisfeito e na hora de ir embora deu uma boa gorjeta garonete
antes de pagar sua conta".
Se a seguinte questo for formulada: "O homem comeu o hambrguer?"
Voc certamente responder: "Sim, ele comeu o hambrguer". Ora, a mquina de Schank

pode responder a questes deste tipo sobre restaurantes. Para poder fazer isto ela tem a
"representao" do tipo de informao que os seres humanos tm sobre restaurantes, o que
a torna capaz de responder tais questes quando tais tipos de histria lhe so apresentadas.
Quando se fornece uma histria para a mquina e se formula uma questo, a mquina
imprimir respostas do mesmo tipo que esperaramos de seres humanos. Partidrios da IA
no sentido forte afirmam desta seqncia pergunta-resposta, que no somente a mquina
est simulando uma habilidade humana mas tambm que:
a) A mquina compreende a histria e fornece respostas s questes,
b) O que a mquina e seu programa fazem explica a habilidade humana para
entender histrias e responder questes sobre elas.
As afirmaes (A) e (B) parecem totalmente insustentveis a partir do
trabalho de Schank, como tentarei mostrar no que se segue. 1)
(

Uma maneira para testar qualquer teoria da mente perguntar a algum o


que aconteceria se sua prpria mente de fato funcionasse sob os princpios que a teoria diz
que toda mente funciona. Vamos aplicar este teste ao programa de Schank com o seguinte
Gedankenexperiment

**).

Suponha que estou trancado em um quarto e suponha que me do

um calhamao de papel com um texto em chins. Alm disso, suponha que eu no conhea
o idioma chins, nem escrito nem falado, e que eu no seja sequer capaz de reconhecer a
escrita chinesa, ou seja, distingu-la, por exemplo, da escrita japonesa ou de rabiscos sem
significado. Suponha, agora, que alm deste primeiro calhamao fornecem-me - tambm
em chins - um segundo, contendo um roteiro com um conjunto de regras para
correlacionar o segundo texto com o primeiro. As regras so em ingls e eu as compreendo
to bem como qualquer outro falante nativo de ingls. Isto me possibilita relacionar um
conjunto de smbolos formais com o outro, e o que entendo por formal aqui que posso
identificar os smbolos por seu formato. Nestas circunstncias, imagine tambm que me
forneam um terceiro calhamao contendo smbolos em chins junto com algumas
(
(1)

No estou dizendo, claro, que o prprio Schank est comprometido com essas
afirmaes.

(
(**)

O termo alemo Gedankenexperiment significa "experimento mental" um recurso


filosfico onde se imagina uma situao possvel, que no contraria possibilidades
fsicas e lgicas e da qual podemos extrair conseqncias conceituais importantes.

instrues, outra vez em ingls, as quais me possibilitaro correlacionar elementos deste


terceiro mao com os dois primeiros; estas regras me instruem a como relacionar
determinados smbolos em chins com certos tipos de configurao e os devolver como
resposta a determinadas configuraes dadas no terceiro calhamao. Sem que eu saiba, as
pessoas que me fornecem os textos com os referidos smbolos, denominam o primeiro
bloco de "roteiro", o segundo, de "histria" e o terceiro de "questes". Ademais, eles
intitulam os smbolos devolvidos em resposta ao terceiro mao de "respostas s questes", e
o conjunto de regras em ingls de "programa". Para complicar a histria um pouquinho
mais, imagine que estas pessoas tambm me forneam histrias em ingls, as quais eu
compreendo, e ento elas me fazem questes em ingls sobre estas histrias, e eu as
devolvo respondendo em ingls. Suponha, ainda, que depois de um tempo eu me saia to
bem ao seguir as instrues para manipulao dos smbolos em chins e que os
programadores consigam escrever to bem os programas que do ponto de vista externo isto , do ponto de vista de algum que esteja do lado de fora do quarto no qual eu estou
trancado - minhas respostas s questes so indistinguveis de falantes nativos de chins.
Ningum observando minhas respostas pode dizer que eu no falo uma palavra de chins.
Vamos tambm supor que minhas respostas s questes em ingls so indistinguveis de
outro falante nativo de ingls - pela simples razo de que eu sou um falante nativo de
ingls. Do ponto de vista externo, - na viso de algum que l minhas respostas, - as
respostas em chins e em ingls so igualmente satisfatrias. Mas no caso do idioma
chins, eu obtenho respostas manipulando smbolos formais em chins, sem significao.
No que diz respeito ao chins, eu simplesmente me comportei como um computador;
executei operaes computacionais com base em elementos formalmente especificados.
Para os propsitos do idioma chins, eu sou simplesmente uma instanciao de um
programa de computador.
Assim sendo, as afirmaes feitas pela IA no sentido forte so de que um
computador programado entende as histrias e que o programa, em algum sentido, explica
a compreenso humana. Estamos agora em posio de examinar claramente estas
afirmaes no nosso experimento mental.
a) Considerando a primeira afirmao, parece bvio no exemplo acima, que
eu no compreendo uma palavra das histrias em chins. Eu tenho inputs e outputs que so

indistinguveis para os falantes nativos de chins e mesmo que eu tenha qualquer programa
formal, ainda assim eu no compreendo nada. Pelas mesmas razes, o computador de
Schank no compreende nada das histrias, sejam elas em chins, em ingls, ou em
qualquer outro idioma. No caso do idioma chins eu desempenho o papel do computador, e
nos casos onde no desempenho tal papel, o computador no faz nada alm do que eu
poderia fazer, ou seja, em ambas as situaes no h compreenso.
b) Com relao a segunda afirmao - que o programa explica a
compreenso humana - podemos verificar que o computador e seu programa no fornecem
as condies suficientes para a compreenso, visto que o computador e o programa esto
funcionando e no existe compreenso. Mas ser que ele fornece uma condio necessria
ou uma contribuio significativa para a compreenso? Uma das afirmaes sustentada pela
IA no sentido forte esta: quando eu compreendo uma histria em ingls, o que estou
fazendo exatamente o mesmo - ou talvez mais que o mesmo - que fazia no caso da
manipulao dos smbolos em chins. No caso do ingls, que eu compreendo, h muito
mais do que manipulao de smbolos formais do que em relao ao chins, que eu no
compreendo. No estou demonstrando que esta afirmao falsa, mas certamente me
parece sem credibilidade no exemplo. A plausibilidade de tal suposio deriva-se do fato de
que podemos construir um programa que ter os mesmos inputs e outputs como um falante
nativo, alm disso pressupomos que falantes tm algum nvel de descrio onde eles so
tambm instanciaes de um programa. Com base nestas duas suposies, assumimos que
mesmo se o programa de Schank no constituir uma explicao completa da compreenso,
talvez constitua uma parte de tal explicao. Ou seja, assumimos como possibilidade
emprica, embora sem razes para supor que ela seja verdadeira (uma vez que ela apenas
sugerida e no demonstrada) que o programa de computador irrelevante para minha
compreenso da histria. No caso do idioma chins tenho tudo que a IA poderia colocar em
mim por intermdio de um programa, e mesmo assim no compreendo nada. No caso do
ingls compreendo tudo e at agora no tenho nenhuma razo para supor que minha
compreenso tenha alguma relao com programas de computador - isto , com operaes
computacionais especificadas sobre elementos puramente formais. Na medida em que o
programa definido em termos de operaes computacionais baseadas em elementos
puramente formais, o que o exemplo sugere que estes no tm conexo com a

compreenso. Eles no so condio suficiente e no h, tampouco, razo para supor que


eles sejam condio necessria ou mesmo que eles tenham alguma contribuio
significativa para a compreenso. Observe-se que a fora do argumento no simplesmente
que mquinas diferentes podem ter o mesmo input e output enquanto operando em
princpios formais diferentes - no este o ponto. O que queremos dizer que por mais que
se coloque no computador princpios formais isto no ser suficiente para a compreenso,
uma vez que um ser humano ser capaz de seguir tais princpios formais sem compreender
nada. No h vantagem em supor que eles sejam necessrios ou mesmo que contribuam em
algo, visto que no h nenhuma razo para supor que quando eu compreendo ingls, estou
operando com algum programa formal.
O que h no caso das sentenas em ingls que no existe no caso das
sentenas em chins? A resposta bvia que eu sei o que as primeiras significam, mas no
tenho a menor idia do que as ltimas significam. No que isto consiste e por que no posso
atribu-lo a uma mquina, qualquer que seja ela? Por que no posso atribuir a uma mquina
aquilo que faz com que eu saiba o que as sentenas em ingls significam? Voltarei a estas
questes depois de desenvolver um pouco mais o meu exemplo.
Tive oportunidade de apresentar este exemplo a vrios pesquisadores da IA
e, curiosamente, eles parecem discordar acerca do que seja uma resposta para estas
questes. Obtive uma variedade surpreendente de respostas,e, no que se segue, analisarei
vrias delas (especificadas conforme suas origens geogrficas). Primeiro, entretanto,quero
desmontar alguns equvocos comuns sobre "compreenso". Em muitas destas discusses
encontramos muita confuso sobre a palavra "compreenso". Meus crticos alegam que h
diferentes graus de compreenso, que "compreenso" no um simples predicado binrio,
que existem de fato diferentes tipos e nveis de compreenso e, freqentemente, a lei do
terceiro excludo no se aplica de uma maneira direta a enunciados da forma "x
compreende y"; em muitos casos se x compreende y matria de deciso e no uma
simples questo de fato e assim por diante. Sobre todos estes comentrios eu digo: "est
certo, isso mesmo" mas eles no tem nada a ver com o que est sendo discutido aqui. H
casos em que "compreenso" se aplica claramente e casos onde claramente ela no se
aplica. So situaes deste tipo que preciso para fundamentar meu argumento
(

2).

Compreendo histrias em ingls, em grau inferior posso tambm


compreender histrias em francs, em um grau ainda menor, alemo, e em chins, de jeito
nenhum. Meu carro e minha mquina de somar, por um outro lado, no compreendem nada,
esto "por fora" seja por metfora ou por analogia. Freqentemente atribumos
"compreenso" e outros predicados cognitivos a carros, mquinas de somar e outros
artefatos mas nada se prova com tais atribuies. Dizemos: "a porta sabe quando abrir, em
razo de sua clula fotoeltrica" ; "a mquina de somar sabe como fazer soma e subtrao,
mas no diviso" e "o termostato percebe as mudanas de temperatura". A razo pela qual
fazemos estas atribuies interessante e tem a ver com o fato de que estendemos nossa
prpria intencionalidade para os artefatos

3)

Nossos instrumentos so extenses de nossos

propsitos, e assim achamos natural fazer atribuies metafricas de intencionalidade a


eles; mas estes exemplos no resolvem nosso problema filosfico. O sentido no qual uma
porta automtica "compreende instrues" atravs de sua clula fotoeltrica no de jeito
nenhum o sentido no qual eu compreendo ingls. Se o sentido da compreenso de histrias
dos computadores programados por Schank fosse o sentido metafrico no qual a porta
compreende e no o sentido no qual eu compreendo ingls no valeria a pena discutir este
problema. Newell e Simon escrevem afirmando que o sentido de "compreenso" para os
computadores exatamente o mesmo que para os seres humanos. Gosto do modo incisivo
desta afirmao e este tipo de assero que analisarei. Argumentarei que, em um sentido
literal, o computador no compreende nada da mesma maneira que o carro e a mquina de
somar tambm no compreendem nada. A compreenso do computador no como minha
compreenso de alemo, ou seja, parcial ou incompleta, ela zero.
Examinemos agora as objees:
I - A objeo dos Sistemas (Berkeley). - "Embora seja verdade que a pessoa
que est trancada no quarto no compreende a histria, ocorre que ela meramente parte de
(2)

"Compreenso" implica no s na posse de estados mentais (intencionais) como


tambm em condies de verdade desses estados (validade, sucesso). No escopo desta
discusso estamos interessados somente na posse desses estados.

(
(3)

Intencionalidade por definio aquela caracterstica de determinados estados mentais


pelos quais eles so direcionados para, ou acerca de objetos e estados de coisas no
mundo. Neste caso, crenas, desejos e intenes so estados intencionais; formas no
direcionadas de ansiedade e de depresso no so. Para uma discusso adicional ver
Searle (1979).

um sistema global, e o sistema compreende a histria. Essa pessoa tem uma grande tabela a
sua frente na qual esto escritas as regras, tem um bloco de papel de rascunho, lpis para
fazer clculos; alm disso tem um "banco de dados" com um conjunto de smbolos em
chins. Assim sendo, a compreenso no deve ser atribuda a um simples indivduo, mas a
totalidade de um sistema do qual ele faz parte".
Minha resposta a teoria dos sistemas simples: deixe o indivduo
internalizar todos estes elementos do sistema. Ele memoriza as regras da tabela e o banco
de dados com smbolos chineses e ento ele far todos os clculos em sua cabea. O
indivduo, desse modo, incorpora todo o sistema. No h nada no sistema que ele no possa
abarcar. Podemos at dispensar o quarto e supor que ele trabalha do lado de fora. Do
mesmo jeito, ele continuar no compreendendo nada de chins; portanto, o sistema no
compreende nada porque no h nada neste sistema que no esteja nele. Se ele no
compreende, ento o sistema no poder compreender, pois o sistema somente uma parte
dele.
Na realidade, sinto-me at embaraado ao dar uma resposta a teoria dos
sistemas. A idia que embora uma pessoa no compreenda chins, de alguma forma a
conjuno pessoa e pedacinhos de papel poderia compreender chins. No fcil para mim
imaginar como algum que no estivesse preso a uma ideologia acharia esta idia plausvel.
Entretanto, penso que muita gente que est comprometida com a ideologia da IA no sentido
forte, estar propensa a dizer algo muito parecido com isto. Vamos ento explorar um
pouco mais esta idia. De acordo com uma verso desta viso, enquanto o homem do
exemplo dos sistemas internalizados no compreende chins como um falante nativo o faz
(pois, por exemplo, ele no sabe que a histria se refere a restaurante e hamburguers etc...)
ainda assim o homem como sistema de manipulao de smbolos formais realmente
compreende chins. O subsistema do homem, que o sistema de manipulao de smbolos
formais para o chins no deve ser confundido com o subsistema para ingls.
Assim sendo, existem dois subsistemas no homem, um compreende ingls, o
outro, chins, e "acontece que os dois sistemas tm muito pouco a ver um com o outro".
Mas, quero responder que no somente eles tem muito pouco a ver um com o outro, como
eles no so nem remotamente parecidos. O subsistema que compreende ingls (supondo
que possamos usar este jargo "subsistema" no momento) sabe que as histrias so sobre

restaurantes e comer hamburguers, etc, ele sabe que esto formulando questes sobre
restaurantes e que eles as responde da melhor maneira possvel, atravs de vrias
inferncias sobre o contedo da histria e assim por diante. Mas o sistema chins no sabe
nada disso; enquanto o subsistema ingls sabe que hamburguers referem-se a hamburguers
o sistema chins sabe somente que "tal e tal rabisco" seguido de "outro rabisco". Tudo que
ele sabe que vrios smbolos formais esto sendo introduzidos numa das extremidade e
so manipulados de acordo com regras escritas em ingls e que outro smbolos esto saindo
na outra extremidade. O ponto essencial do exemplo original era argumentar que tal
manipulao de smbolos por si s no poderia ser suficiente para compreender chins nem
no sentido literal, porque o homem poderia escrever "tal e tal rabisco" e depois "outro
rabisco tal e tal" sem entender nada de chins. E no vem de encontro ao argumento
postular subsistemas dentro do homem, pois tais subsistemas no se desempenham melhor
do que o homem; eles no tem nem sequer alguma semelhana com o falante de ingls (ou
subsistema). De fato, na descrio feita, o subsistema chins simplesmente uma parte do
subsistema ingls, uma parte que processa uma manipulao de smbolos sem sentido de
acordo com regras em ingls.
Perguntemo-nos em primeiro lugar o que motiva a objeo dos sistemas - ou
seja que fundamentos independentes existem para se dizer que o agente deve ter um
subsistema dentro dele que literalmente compreende histrias em chins? Pelo que sei os
nicos fundamentos so que no exemplo eu tenho o mesmo input e o mesmo output dos
falantes nativos de chins e um programa que os intermedia. Mas o ponto do exemplo foi
mostrar que isto no poderia ser suficiente para a compreenso no sentido no qual
compreendo histrias em ingls, pois uma pessoa e portanto, o conjunto de sistemas que a
compe pode ter a combinao adequada de input, output e programa e mesmo assim no
compreender nada no sentido no qual compreendo ingls. A nica motivao para dizer que
deve haver um subsistema em mim que compreende chins que eu tenho um programa e
que posso passar no teste de Turing; posso enganar falantes nativos de chins. (Cf. Turing,
1950). Mas precisamente um dos pontos em discusso a adequao do teste de Turing. O
exemplo mostra que pode haver dois "sistemas", ambos passam no teste de Turing mas
apenas um deles compreende; e no um argumento contra este ponto dizer que se ambos
passam no teste de Turing, ambos devem compreender, uma vez que esta afirmao no

vem ao encontro do argumento de que o sistema em mim que compreende ingls muito
mais completo do que o sistema que meramente processa chins. Em suma, a objeo do
sistema escamoteia a questo ao insistir em apresentar argumentos que o sistema deve
compreender chins.
Alm do mais, a objeo dos sistemas parece levar a conseqncias
absurdas. Se tenho de concluir que deve haver cognio em mim com base no fato de que
tenho um certo tipo de input e de output e um programa entre estes, ento parece que todos
os tipos de subsistemas no-cognitivos tornar-se-o cognitivos. Por exemplo, meu
estmago tem um nvel de descrio no qual faz processamento de informao e instancia
um grande nmero de programas de computador, mas suponho que no queremos dizer que
ele tem compreenso. Se aceitamos a objeo dos sistemas fica difcil de perceber como
poderamos evitar de dizer que o estmago, o corao, o fgado etc.. so todo subsistemas
que compreendem pois no haveria nenhuma maneira, em princpio, para distinguir a
motivao para dizer que o subsistema chins compreende de dizer que o estmago
compreende. (No constitui uma resposta para este ponto dizer que o sistema chins tem
informao como input e ouput e que o estmago tem comida e produtos alimentares como
input e output, pois do ponto de vista do agente e do meu ponto de vista, no h informao
nem na comida e nem no chins; o chins s um conjunto de rabiscos sem significado. A
informao no caso do chins est somente nos olhos dos programadores e dos intrpretes e
no h nada que os impea de tratar o input e o output de meus rgos digestivos como
informao, se eles assim o quiserem).
Este ltimo ponto diz respeito a alguns problemas na IA no sentido forte e
vale a pena fazer aqui uma pequena digresso. Se a IA no sentido forte um ramo da
Psicologia ela deve ser capaz de distinguir sistemas que so genuinamente mentais daqueles
que no o so. Ela deve ser capaz de distinguir os princpios com os quais a mente trabalha
daqueles com os quais sistemas no-mentais trabalham; de outra maneira ela no poderia
oferecer explicaes acerca da natureza do que especificamente mental. A distino
mental e no-mental no pode estar apenas no olho do observador - ela deve ser intrnseca
aos sistemas, pois de outra maneira ficaria a critrio do observador tratar pessoas como
no-mentais e furaces como mentais. Mas com muita freqncia, na literatura sobre IA, a
distino esmaecida de tal maneira que torna-se desastroso afirmar que a IA uma

investigao cognitiva. McCarthy, por exemplo, escreve: "Podemos dizer que mquinas to
simples como os termostatos tm crenas, e ter crenas parece ser uma caracterstica de
muitas mquinas capazes de resolver problemas" (McCarthy, 1979). Qualquer um que
pense que a IA no sentido forte tem alguma chance como uma teoria da mente deve
ponderar as implicaes desta observao. Pedem-nos para aceitar como sendo uma
descoberta da IA no sentido forte que o pedao de metal na parede que usamos para regular
a temperatura tenha crenas da mesma maneira que ns, nossas esposas e nossos filhos tm
crenas, e alm do mais que a "maioria" das outras mquinas da sala - telefone, gravador,
mquina de somar, interruptor eltrico, etc - tambm tenham crenas. No objetivo deste
artigo argumentar ou discutir com McCarthy, por isso foi afirmaremos o seguinte, sem
argumentar. O estudo da mente comea com o fato de que seres humanos tm crenas e que
termostatos, telefones e mquinas de somar no as tm. Se voc concebe uma teoria que
nega tal ponto, voc produziu um contra-exemplo e a teoria falsa. Tm-se a impresso de
que os pesquisadores da IA que escrevem esse tipo de coisa pensam que podem escapar
disto porque eles realmente no levam tais coisas a srio e no pensam que algum o far.
Proponho, pelo menos para o momento, levar estas coisas a srio. Pense por um minuto o
que seria necessrio para estabelecer que o pedao de metal na parede tem, de fato, crenas
- crenas com direcionalidade, contedo proposicional, condies de satisfao; crenas
que tm a possibilidade de ser fortes ou fracas, ansiosas ou seguras, dogmticas, racionais
ou supersticiosas, f cega ou especulaes hesitantes. O termostato no um candidato
plausvel a ter crenas, nem tampouco o so o estmago, o fgado, a mquina de somar ou o
telefone. Contudo, uma vez que estamos levando esta idia a srio, note-se que se fosse
verdadeira ela seria fatal para a proposta da IA de ser uma cincia da mente, pois ento a
mente estaria em todos os lugares. O que queremos saber o que distingue a mente de
termostatos, fgados, etc. Se McCarthy estivesse certo a IA no sentido forte no teria a
menor possibilidade de nos dizer em que se baseia esta distino.
II - A objeo do robot - (Yale).
"Suponhamos que escrevssemos um programa diferente daquele de Schank.
Suponhamos que pusssemos um computador dentro de um robot e que esse computador
no fosse apenas receber smbolos formais como input e produzir esses smbolos como
output, mas que ele fosse operar o robot de tal maneira que este fizesse coisas como

perceber, andar, mover-se, pregar pregos, comer, beber ou qualquer outra coisa. O robot
teria uma cmara de televiso adaptada a ele- o que o capacitaria a ver - teria braos e
pernas que o capacitariam a agir e tudo isso seria controlado pelo seu crebro-computador.
Tal robot teria compreenso genuna e outros estados mentais - ele seria diferente do
computador de Schank".
A primeira coisa a notar acerca da objeo do robot que ela tacitamente
concede que a cognio no s uma questo de manipulao de smbolos, uma vez que
esta objeo acrescenta um conjunto de relaes causais com o mundo externo. Mas a
resposta a objeo do robot que o acrscimo de tais capacidades (perceptual e motora)
no acrescenta nada em termos de compreenso ou intencionalidade ao programa original
de Schank. Para perceber isso basta notar que o mesmo experimento mental se aplica ao
caso do robot. Suponha que em vez de um computador dentro de um robot voc me ponha
dentro do quarto e me d novamente smbolos em chins com instrues em ingls para
combinar estes smbolos com outros smbolos em chins. Suponhamos que sem eu saber,
alguns dos smbolos em chins que chegam a mim venham de uma cmara de televiso
adaptada ao robot,e que outros smbolos em chins que estou produzindo sirvam para fazer
com que o motor dentro do robot mova seus braos e pernas. importante enfatizar que
tudo que estou fazendo manipular smbolos formais. Estou recebendo "informao" do
"aparato perceptual" do robot e estou fornecendo "instrues" para seu aparato motor sem
saber o que estou fazendo. Eu sou o homnculo do robot, mas de maneira diferente do
homnculo tradicional, sem saber o que est ocorrendo. No sei nada a no ser as regras
para manipulao de smbolos. Neste caso pode-se dizer que o robot no tem estados
intencionais; ele se move como resultado de seus circuitos eltricos e do seu programa.
Alm do mais, a instanciao de um programa no produz estados intencionais de nenhum
tipo relevante. Tudo que est sendo feito seguir instrues formais acerca da manipulao
de smbolos formais.
III - A objeo do Simulador Cerebral (Berkeley e M.I.T.).
"Suponhamos que ns projetssemos um programa que no represente a
informao que temos acerca do mundo como o caso da informao dos roteiros de
Schank. O programa simula a seqncia efetiva da atividade dos neurnios nas sinapses do
crebro de um falante nativo de chins, quando este entende histrias e d respostas a elas.

A mquina recebe histrias em chins e questes acerca delas como input; ela simula a
estrutura formal dos crebros dos chineses ao processar estas histrias e fornece respostas
em chins como outputs. Podemos at imaginar que a mquina no opera com um nico
programa serial, mas com um conjunto de programas operando em paralelo, da mesma
maneira que crebros humanos possivelmente operam quando processam linguagem
natural. Em tal caso teramos de dizer que a mquina entenderia histrias, e se nos
recusssemos a dizer isso no teramos tambm que negar que falantes de chins entendem
histrias? Ao nvel das sinapses, o que poder ser diferente no programa do computador e
no programa do crebro dos chineses?"
Antes de responder esta objeo quero fazer uma digresso para notar que
esta uma objeo estranha de ser feita por qualquer adepto da IA (funcionalismo, etc.).
Penso que a idia central da IA no sentido forte que no precisamos saber como o crebro
funciona para saber como a mente funciona. A hiptese bsica que existe um nvel de
operaes mentais que consiste em processos computacionais sobre elementos formais que
constitui a essncia do mental e pode ser realizado atravs de diferentes processos
cerebrais, da mesma maneira que um programa computacional pode ser rodado em
diferente hardwares. A pressuposio da IA no sentido forte que a mente est para o
crebro assim como o programa est para o hardware, e podemos entender a mente sem
fazer neurofisiologia. Se tivssemos que saber como o crebro trabalha para fazer IA esta
no constituiria um problema. Contudo, mesmo que cheguemos a um conhecimento muito
grande das operaes do crebro, isto no seria suficiente para produzir a compreenso.
Seno vejamos: imagine que ao invs de um ser monolingual num quarto combinando
smbolos tenhamos um homem operando um conjunto complexo de canos de gua com
vlvulas que os conectam. Quando o homem recebe smbolos em chins, ele consulta no
programa escrito em ingls quais vlvulas ele deve abrir e quais ele deve fechar. Cada
conexo na tubulao corresponde a uma sinapse no crebro do chins e o sistema
equipado de tal maneira que aps ativar as conexes adequadas - ou seja, aps abrir as
torneiras adequadas - as respostas em chins aparecem no final da tubulao.
Onde est a compreenso neste sistema? Ele recebe chins como input,
simula a estrutura formal das sinapses do crebro do chins e produz textos em chins
como output. Mas o homem certamente no entende chins, e nem tampouco a tubulao, e

se estivermos tentados a adotar o que penso ser a idia absurda de que de alguma maneira a
conjuno homem e tubulao compreende, preciso lembrar que em princpio o homem
pode internalizar a estrutura formal da tubulao de gua e realizar toda a atividade
neuronal em sua imaginao. O problema com o simulador cerebral que ele est
simulando coisas erradas acerca do crebro. Na medida em que ele simula unicamente a
estrutura formal das seqncias de atividades neuronais nas sinapses, ele no est
simulando o aspecto mais importante do crebro, ou seja, suas propriedades causais e sua
habilidade para produzir estados intencionais. Que as propriedades formais no so
suficientes para produzir propriedades causais mostrado pelo exemplo da tubulao de
gua: podemos ter todas as propriedades formais sem que estas tenham sido derivadas das
propriedades causais neurobiolgicas relevantes.
IV - A objeo da combinao - (Berkeley e Stanford).
"As trs objees anteriores podem no ser convincentes como uma
refutao do contra-exemplo do quarto chins, mas se elas forem tomadas conjuntamente
so convincentes e decisivas. Imagine um robot com um computador em forma de crebro
alojado em sua cavidade craniana; imagine que o computador est programado com todas
as sinapses de um crebro humano; imagine que o comportamento do robot indistinguvel
do comportamento humano e agora pense nisto tudo como um sistema unificado e no
apenas como um computador com inputs e outputs. Certamente em tal caso teramos que
atribuir intencionalidade ao sistema."
Concordo inteiramente que em tal caso acharamos racional e mesmo
irresistvel aceitar a hiptese de que o robot teria intencionalidade, na medida em que no
soubssemos mais nada sobre ele. Alm da aparncia e comportamento, os outros
elementos da combinao so irrelevantes. Se pudssemos construir um robot cujo
comportamento no se distinguisse de uma grande parcela do comportamento humano, ns
lhe atribuiramos intencionalidade, apesar de termos algumas razes para no faz-lo. No
precisaramos saber de antemo que seu crebro-computador um anlogo formal do
crebro humano.
Mas realmente no vejo como isto poderia ajudar nas pretenses da IA no
sentido forte e eis porqu: de acordo com a IA no sentido forte, instanciar um programa
formal com o input e o output adequados condio suficiente e constitutiva da

intencionalidade. Como Newell (1980) coloca, a essncia do mental a operao de um


sistema de smbolos fsicos. Mas as atribuies de intencionalidade que fazemos ao robot
neste exemplo no tm nada a ver com programas formais. Elas so simplesmente baseadas
na pressuposio de que se o robot se parece e se comporta como ns, teramos de supor at prova em contrrio - que ele deve ter estados mentais como os nossos que causam e se
expressam no seu comportamento, bem como um mecanismo interno capaz de produzir tais
estados mentais. Se soubssemos como explicar seu comportamento independentemente,
sem tais pressuposies, no atribuiramos intencionalidade a ele, especialmente se
soubssemos que ele tem um programa formal. Este o ponto de minha resposta objeo
II.
Suponhamos que ns soubssemos que o comportamento do robot
inteiramente explicado pelo fato de um homem dentro dele estar recebendo smbolos
formais sem interpretao dos receptores sensoriais do robot e enviando esses smbolos
para os mecanismos motores desse robot e que o homem est fazendo essa manipulao
simblica de acordo com um conjunto de regras. Alm do mais, suponha que o homem
nada sabe desses fatos acerca do robot; tudo que ele sabe qual operao realizar sobre
esses smbolos sem significado. Em tal caso, consideraramos o robot como um engenhoso
fantoche mecnico. A hiptese de que o fantoche tenha uma mente seria ento injustificada
e desnecessria, pois no haveria mais razo para atribuir intencionalidade ao robot ou para
o sistema do qual ele uma parte (com exceo da intencionalidade do homem que est
manipulando os smbolos). A manipulao de smbolos formais continua, o input e o output
so combinados corretamente, mas o nico locus de intencionalidade o homem, e ele no
sabe nada dos estados intencionais relevantes; por exemplo ele no v o que chega aos
olhos do robot, ele no tem a inteno de mover o brao do robot ele no compreende as
observaes que so feitas pelo robot ou que lhe so feitas. Nem tampouco, pelas razes
colocadas acima, o sistema do qual o homem e o robot so parte, compreendem alguma
coisa.
Para esclarecer este ponto faamos um contraste com os casos onde achamos
completamente natural atribuir intencionalidade a membros de algumas outras espcies,
como gorilas e macacos e a animais domsticos como os ces. As razes pelas quais
achamos isto natural, so, grosso modo, duas. Sem atribuir intencionalidade aos animais,

seu comportamento no faz sentido, e podemos ver que os animais so feitos de material
semelhante ao nosso: olhos, nariz, pele, etc. Dada a coerncia do comportamento animal e a
pressuposio de um mesmo material causal subjacente a ele, pressupomos que o animal
deve ter estados mentais subjacentes a seu comportamento e que esses estados mentais
devem ser produzidos por mecanismos feitos de um material semelhante ao nosso.
Certamente poderamos fazer pressuposies semelhantes acerca do robot, mas na medida
em que soubssemos que seu comportamento resulta de um programa formal e que as
propriedades causais efetivas de sua substncia fsica fossem irrelevantes, abandonaramos
a pressuposio de intencionalidade.
Existem

outras

duas

respostas

ao

meu

exemplo

que

aparecem

freqentemente (e ento valeria a pena discuti-las) mas elas realmente fogem ao ponto.
V - A objeo das outras mentes (Yale).
"Como saber que outras pessoas compreendem chins ou qualquer outra
coisa? Unicamente por seus comportamentos. Ora, o computador pode passar por testes de
comportamento to bem quanto elas (em princpio), assim se atribumos cognio a outras
pessoas, devemos em princpio atribu-la tambm a computadores".
A objeo merece apenas uma resposta curta. O problema em questo no
como eu sei que outras pessoas tm estados cognitivos, mas o que estou lhes atribuindo ao
dizer que elas tm estados cognitivos. O ponto central do argumento que no poderiam
ser apenas processos computacionais e seus outputs porque estes podem existir sem o
estado cognitivo. No resposta para este argumento fingir que estados cognitivos no
existem. Em "cincias cognitivas" pressupe-se a realidade e a possibilidade de se conhecer
o mental, da mesma maneira que em cincias fsicas temos de pressupor a realidade e a
capacidade de se conhecer objetos fsicos.
VI - A objeo das "vrias casas" (Berkeley).
"A totalidade de seu argumento pressupe que a IA trata apenas de
computadores analgicos e digitais. Ocorre que este apenas o estgio atual da tecnologia.
Quaisquer que sejam esses processos causais que voc diz serem essenciais para a
intencionalidade (pressupondo que voc esteja correto), possivelmente seremos capazes de
construir dispositivos que exibiro esses processos causais e isto ser tambm inteligncia

artificial. Assim, seus argumentos no se aplicam a capacidade da IA para produzir e


explicar a cognio".
No tenho resposta a esta objeo a no ser dizer que ela trivializa o projeto
da IA no sentido forte ao redefini-la como qualquer coisa que produza e explique a
cognio artificialmente. O interesse das afirmaes originais feitas em favor da IA que
ela era uma tese precisa e bem definida: processos mentais so processos computacionais
sobre elementos formalmente definidos. Minha preocupao tem sido desafiar esta tese. Se
sua proposta redefinida de tal maneira que ela no mais se constitui nesta tese, minhas
objees no se aplicam mais, pois no h mais uma hiptese testvel sobre a qual elas se
aplicam.
Retornemos s questes as quais prometi que tentaria responder. Dado que
no exemplo original eu compreendo ingls e no chins, e dado que a mquina no
compreende nem ingls nem chins, deve haver algo em mim que faz com que eu
compreenda ingls e algo que falta em mim que faz com que eu no compreenda chins.
Por que no podemos dar essas coisas, sejam l o que forem, a uma mquina?
No vejo razo, em princpio, porque no poderamos conceder a uma
mquina a capacidade de compreender ingls ou chins, pois nossos corpos com nossos
crebros so precisamente tais mquinas. No h argumentos fortes para dizer que no
poderamos atribuir tal coisa a uma mquina se sua operao for definida somente em
termos de processos computacionais sobre elementos formalmente definidos, ou seja, onde
a operao da mquina definida como uma instanciao de um programa de computador.
No porque eu sou a instanciao de um programa de computador que eu sou capaz de
entender ingls e ter outras formas de intencionalidade (eu sou, suponho, a instanciao de
qualquer programa de computador) mas pelo que sabemos porque eu sou um certo tipo de
organismo com uma certa estrutura biolgica (fsica e qumica) e esta estrutura, em termos
causais, capaz, sob certas condies, de produzir a percepo, a ao, a compreenso, o
aprendizado e outros fenmenos intencionais. Parte do ncleo deste argumento que s
algo que tenha estes poderes causais pode ter intencionalidade. Talvez outros processos
fsicos e qumicos pudessem produzir exatamente estes efeitos, talvez, por exemplo, os
marcianos tambm tenham intencionalidade, mas os seus crebros so feitos de um material

diferente. Esta uma questo emprica, semelhante questo de se a fotossntese pode ser
feita com uma qumica diferente da que compe a clorofila.
Mas o ponto principal do presente argumento que um modelo puramente
formal nunca ser, por si s, suficiente para produzir intencionalidade, pois as propriedades
formais no so constitutivas da intencionalidade e no tm poderes causais, com exceo
do poder de produzir o estgio seguinte do formalismo quando a mquina est rodando. E
mesmo que uma realizao especfica do modelo formal venha a exibir propriedades
causais, estas so irrelevantes pois este modelo pode tambm ser efetivado atravs de uma
realizao diferente onde tais propriedades estaro ausentes. Mesmo que por algum milagre
falantes de chins realizem exatamente o programa de Schank, podemos colocar o mesmo
programa em falantes de ingls, tubulao de gua ou computadores; nenhum destes
compreende chins e nem tampouco o programa.
O que importa nas operaes do crebro no a sombra do formalismo dado
pela seqncia das sinapses, mas as propriedades efetivas de tais seqncias. Todos os
argumentos em favor da verso forte da IA que examinei insistem em delinear estas
sombras lanadas pela cognio para ento sustentar que tais sombras so a prpria
cognio.
Com o intuito de concluir, quero enunciar alguns pontos filosficos gerais
implcitos no argumento. Por uma questo de clareza tentarei fazer isto na forma de
perguntas e respostas e comeo com a velha questo:
"Pode uma mquina pensar?"
A resposta , obviamente, sim. Ns somos precisamente tais mquinas.
"Sim, mas pode um artefato, uma mquina feita pelo homem, pensar?"
Assumindo que seja possvel produzir artificialmente uma mquina com
sistema nervoso, neurnios com axonios e dendritos e tudo o mais, suficientemente
semelhante a ns, de novo a resposta a esta questo parece ser, obviamente, "sim". Se voc
pode duplicar exatamente as causas, voc pode duplicar os efeitos. E de fato seria possvel
produzir conscincia, intencionalidade e tudo o mais usando princpios qumicos diferentes
dos usados por seres humanos. Como eu disse, uma questo emprica.
"O.K., mas pode um computador digital pensar?"

Se por um "computador digital" queremos dizer algo que tem um nvel de


descrio atravs do qual esse algo pode corretamente ser descrito como a instanciao de
um programa de computador, ento de novo a resposta sim, uma vez que somos as
instanciaes de um grande nmero de programas de computador e podemos pensar.
"Mas pode algo pensar, compreender, etc somente em virtude de ser um
computador com o tipo de programa adequado? Pode a instanciao de um programa, de
um programa adequado claro, ser por si s condio suficiente para compreenso?"
Esta para mim a questo correta a ser formulada, embora seja usualmente
confundida com uma ou mais das questes anteriores e a resposta para ela "no".
"Por que no?"
Porque a manipulao de smbolos formais por si s no tem
intencionalidade: eles no tm significado, eles nem mesmo so manipulaes de smbolos,
uma vez que esses smbolos no simbolizam nada. No jargo lingstico, eles tm apenas
sintaxe, mas no semntica. A intencionalidade que os computadores parecem ter est
apenas nas mentes daqueles que os programam e daqueles que os usam, ou seja, de quem
envia o input e interpreta o output.
O objeto do exemplo do Quarto Chins foi tentar mostrar isso, pois na
medida em que colocamos algo no sistema que realmente tem intencionalidade, um ser
humano, e o programamos com o programa formal pode-se ver que este programa no
exibe intencionalidade adicional. Por exemplo, isto nada acrescenta habilidade do ser
humano para compreender chins.
Precisamente a caracterstica da IA que parece to atrativa - a distino entre
programa e realizao - mostra-se fatal para a proposta de que simulao possa ser
duplicao. A distino entre o programa e sua realizao no hardware encontra paralelo na
distino entre o nvel de operaes mentais e o nvel de operaes cerebrais. E se
pudssemos descrever o nvel de operaes mentais como um programa formal,
poderamos descrever o que essencial acerca da mente sem fazer psicologia introspectiva
ou neurofisiologia do crebro. Mas a equao: "a mente est para o crebro assim como o
software est para o hardware" tropea em vrios pontos, entre eles, os trs seguintes:
Primeiro, a distino entre programa e realizao tem a conseqncia de que
o mesmo programa poderia ter vrios tipos de realizaes absurdas sem nenhuma forma de

intencionalidade. Weizembaum (1976), por exemplo, mostra em detalhes como construir


um computador usando um rolo de papel higinico e uma pilha de pedrinhas. Similarmente,
o programa para compreenso de histrias em chins pode ser programado numa seqncia
de canos de gua, um conjunto de cata-ventos ou um falante monolingual de ingls,
nenhum dos quais entretanto adquire uma compreenso de chins. Pedras, papel higinico,
vento e canos de gua so o material errado para gerar intencionalidade (apenas algo que
tenha os mesmos poderes causais do crebro pode ter intencionalidade), e embora o falante
de ingls tenha o material correto para a intencionalidade pode-se ver facilmente que ele
no adquire nenhuma intencionalidade extra por memorizar o programa, uma vez que
memoriz-lo no vai lhe ensinar chins.
Segundo, o programa puramente formal, mas os estados intencionais no
so formais. So definidos em termos de seu contedo e no de sua forma. A crena de que
est chovendo, por exemplo, no definida como uma determinada configurao formal,
mas como um determinado contedo mental com condies de satisfao, de racionalidade,
etc (Searle, 1979). Com efeito, a crena como tal no tem sequer uma configurao formal
no sentido sinttico, uma vez que a uma e a mesma crena pode ser dado um nmero
indefinido de expresses sintticas diferentes em diferentes sistemas lingsticos.
Terceiro, como mencionei anteriormente, estados e eventos mentais so
produtos da operao do crebro, mas o programa no um produto do computador.
"Bem, se os programas no so constitutivos de processos mentais, por que
tantas pessoas acreditaram no oposto? Isso precisa ser explicado."
No sei a resposta para isto. A idia de que as simulaes computacionais
poderiam ser a prpria mente deve ter parecido suspeita, em princpio, porque o
computador de nenhuma maneira se limita a simular operaes mentais. Ningum supe
que simulaes computacionais de um alarme contra fogo causaro um incndio na
vizinhana ou que uma simulao computacional de uma tempestade deixar-nos-
encharcados. Por que algum suporia ento que uma simulao computacional da
compreenso de fato entenderia alguma coisa? Diz-se freqentemente que seria
extremamente difcil fazer computadores sentir dor ou se apaixonarem, mas amor e dor no
so nem mais fceis nem mais difceis de simular do que a cognio ou qualquer outra
coisa. Para fazer uma simulao, tudo que se precisa um input e um output corretos e um

programa que os intermedie, transformando o primeiro no segundo. Isto tudo o que o


computador tem e tudo o que ele pode fazer. Confundir simulao com duplicao o
mesmo erro, seja com dor, amor, cognio, incndio ou tempestade.
Mesmo assim, h vrias razes pelas quais a IA deve ter parecido - e para
muitas pessoas ainda parece - reproduzir e explicar fenmenos mentais, e, acredito que no
conseguiremos remover estas iluses at que tenhamos exposto as razes que as
originaram.
Em primeiro lugar, e talvez o mais importante, est a confuso a respeito da
noo de "processamento de informao". Muitas pessoas, em cincia cognitiva, acreditam
que o crebro humano com sua mente faz algo chamado "processamento de informao" e,
analogamente o computador com seu programa faz processamento de informao, mas, por
outro lado, incndios e tempestades no o fazem. Embora o computador possa simular
aspectos formais de qualquer tipo de processo, ele est numa relao especial com a mente
e o crebro, pois, quando o computador adequadamente programado, idealmente com o
mesmo programa do crebro, o processamento de informao idntico nos dois casos e
este processamento de informao realmente a essncia do mental. Mas o problema com
este argumento que ele repousa sobre uma ambigidade na noo de "informao". O
sentido pelo qual as pessoas "processam informao" quando elas refletem sobre problemas
aritmticos , ou quando elas lem e respondem questes sobre histrias no o sentido no
qual o computador programado "processa informao". Em vez disso o que ele faz
manipular smbolos formais. O fato de que o programador e o intrprete dos outputs do
computador usem smbolos para representar objetos do mundo est totalmente alm do
escopo do computador. Repetindo, o computador tem sintaxe mas no tem semntica.
Dessa forma, se voc digita: 2+2 igual?, ele vai apresentar "4". Mas ele no tem idia que
"4" significa 4, ou que isto signifique alguma coisa. O ponto no que ele no tenha
alguma informao de segunda ordem acerca da interpretao de seus smbolos de primeira
ordem, mas o fato que estes smbolos de primeira ordem no tm nenhuma interpretao
no que diz respeito ao computador. Tudo que ele tem so mais smbolos. Assim sendo a
introduo da noo de "processamento de informao" produz um dilema: ou bem
construmos a noo de "processamento de informao" de tal maneira que ela implique a
intencionalidade como parte do processo, ou bem ns no o fazemos. No primeiro caso,

ento, o computador programado no processa informao, ele somente manipula smbolos


formais. No segundo caso, ento, apesar do computador processar informao, somente
no sentido em que mquinas de somar, mquinas de escrever, estmagos, termostatos,
tempestades e furaces o fazem - a saber, eles tm um nvel de descrio no qual podemos
descrev-los como recebendo informao, transformando-a e produzindo informao como
output. Mas nesse caso, depende de observadores externos interpretar o input e o output
como informao no sentido comum. E nenhuma semelhana estabelecida entre o
computador e o crebro em termos de uma similaridade de processamento de informao
nos dois casos.
Em segundo lugar, em grande parte da IA h um behaviorismo residual ou
operacionalismo. Uma vez que computadores adequadamente programados podem ter
padres de input/output semelhantes ao de seres humanos, somos tentados a postular
estados mentais no computador similares a estados mentais humanos. Mas uma vez que
percebemos que conceitual e empiricamente possvel para um sistema ter capacidades
humanas em algum domnio sem ter nenhuma intencionalidade, devemos ser capazes de
superar este impulso. Minha mquina de somar tem capacidade de calcular mas no
intencionalidade, e neste artigo tentei mostrar que um sistema pode ter capacidades de
input e output que duplicam aquelas de um falante nativo de chins e ainda assim no
compreender chins, a despeito de como ele programado. O Teste de Turing tpico na
tradio de ser abertamente behaviorista e operacionalista, e acredito que se os
pesquisadores da IA repudiassem totalmente o behaviorismo e o operacionalismo muito da
confuso entre simulao e duplicao seria eliminada.
Em terceiro lugar, este operacionalismo residual junta-se a uma forma
residual de dualismo; de fato a IA no sentido forte s faz sentido com uma pressuposio
dualista onde aquilo que diz respeito a mente nada tem a ver com o crebro. Na IA no
sentido forte (bem como no funcionalismo) o que importa so programas, e programas so
independentes de sua realizao em mquinas; de fato, no que diz respeito a IA um mesmo
programa pode ser realizado por uma mquina eletrnica, uma substncia mental cartesiana
ou o esprito do mundo hegeliano. A descoberta mais surpreendente que eu fiz ao discutir
estes problemas que muitos pesquisadores da IA esto chocados com a minha idia de que
fenmenos mentais humanos podem ser dependentes das efetivas propriedades fsico-

qumicas dos crebros humanos. Mas eu no deveria estar surpreso, pois a no ser que se
aceite alguma forma de dualismo, o projeto da IA no sentido forte no tem nenhuma
chance. O projeto consiste em reproduzir e explicar o mental projetando programas, mas a
no ser que a mente no seja apenas conceitual, mas empiricamente independente do
crebro, este projeto no poder ser executado, pois o programa completamente
independente de qualquer realizao. A no ser que se acredite que a mente separvel do
crebro, conceitual e empiricamente - um dualismo em uma verso forte - no se pode
esperar reproduzir o mental escrevendo e rodando programas, uma vez que estes devem ser
independentes dos crebros ou de qualquer outra forma especfica de sua instanciao. Se
operaes mentais consistem em operaes computacionais sobre smbolos formais, seguese que eles no tm nenhuma conexo importante com o crebro, e a nica conexo seria
que o crebro poderia ser um dentre os mltiplos tipos de mquinas capazes de instanciar o
programa. Esta forma de dualismo no a verso cartesiana tradicional, a qual sustenta que
existem dois tipos de substncias, mas cartesiana no sentido de que ela insiste que aquilo
que especificamente mental no tem nenhuma conexo intrnseca com as propriedades
efetivas do crebro. Este dualismo subjacente mascarado pelo fato de que a literatura
sobre IA contm freqentes ataques contra o "dualismo", mas o que estes autores no
percebem que sua posio pressupe uma verso forte do dualismo.
"Pode uma mquina pensar?" Meu ponto de vista que somente uma
mquina pode pensar, e de fato apenas mquinas de um tipo muito especial, a saber,
crebros e mquinas que tm os mesmos poderes causais do crebro. E esta a principal
razo pela qual a IA no sentido forte tem to pouco a dizer acerca do pensamento: ela no
tem nada a dizer acerca de mquinas. Por definio, ela trata de programas, e programas
no so mquinas. O que quer que seja a intencionalidade, um fenmeno biolgico o qual
deve ser to causalmente dependente da bioqumica especfica de suas origens como o a
lactao, a fotossntese ou quaisquer outros fenmenos biolgicos. Ningum suporia que
poderamos produzir leite e acar rodando uma simulao computacional das seqncias
formais da lactao e da fotossntese; mas no que diz respeito a mente muitas pessoas
querem acreditar em tal milagre por causa de sua fidelidade profunda ao dualismo:
concebem a mente como processos formais e como algo independente de causas materiais
especficas, algo que no ocorre com o acar e o leite.

Na defesa desse dualismo, expressam essa esperana na forma de que o


crebro um computador digital (computadores antigos eram freqentemente chamados de
"crebros eletrnicos"). Mas isto no adianta nada. claro que o crebro um computador
digital, uma vez que tudo um computador digital, os crebros tambm o so. O ponto
que a capacidade causal do crebro para produzir intencionalidade no pode consistir na
instanciao de um programa de computador, pois para qualquer programa, sempre
possvel que haja algo que o instancie e contudo no tenha estados mentais. Seja l o que o
crebro faa para produzir intencionalidade, esta no pode consistir na instanciao de um
programa, pois nenhum programa pr si s suficiente para produzir a intencionalidade.
AGRADECIMENTOS - Estou em dbito com um grande nmero de pessoas
que discutiram este assunto e por seu paciente esforo em superar minha ignorncia em IA.
Gostaria de agradecer especialmente a Ned Block, Hubert Dreyfus, John Haugeland, Roger
Schank, Robert Wilensky e Terry Winograd.
REFERNCIAS
McCarthy, J. (1979) "Ascribing Mental Qualities to Machines",
Stanford, California: Stanford AI Lab Memo 326.
Newell, A. (1980) "Physical Symbol Systems"
Cognitive Science, 1980.
Schank, R. & Abelson,R.P. (1977) "Natural Language, Philosophy and
Artificial Intelligence"in Ringle, M. (ed) Philosophical Perspectives in
Artificial Intelligence N.J.: Humanities Press.
Searle, J. (1979) "What is an Intentional State?", Mind, 88.
Turing, A. (1950) "Computing Machinery and Intelligence"
Mind, 59.

Weizembaum, J. (1976) Computer Power and Human Reason


San Francisco: W.H. Freeman.

Traduo de Cla Regina de Oliveira Ribeiro

Vous aimerez peut-être aussi