Académique Documents
Professionnel Documents
Culture Documents
html
1)
IA.
pode responder a questes deste tipo sobre restaurantes. Para poder fazer isto ela tem a
"representao" do tipo de informao que os seres humanos tm sobre restaurantes, o que
a torna capaz de responder tais questes quando tais tipos de histria lhe so apresentadas.
Quando se fornece uma histria para a mquina e se formula uma questo, a mquina
imprimir respostas do mesmo tipo que esperaramos de seres humanos. Partidrios da IA
no sentido forte afirmam desta seqncia pergunta-resposta, que no somente a mquina
est simulando uma habilidade humana mas tambm que:
a) A mquina compreende a histria e fornece respostas s questes,
b) O que a mquina e seu programa fazem explica a habilidade humana para
entender histrias e responder questes sobre elas.
As afirmaes (A) e (B) parecem totalmente insustentveis a partir do
trabalho de Schank, como tentarei mostrar no que se segue. 1)
(
**).
um calhamao de papel com um texto em chins. Alm disso, suponha que eu no conhea
o idioma chins, nem escrito nem falado, e que eu no seja sequer capaz de reconhecer a
escrita chinesa, ou seja, distingu-la, por exemplo, da escrita japonesa ou de rabiscos sem
significado. Suponha, agora, que alm deste primeiro calhamao fornecem-me - tambm
em chins - um segundo, contendo um roteiro com um conjunto de regras para
correlacionar o segundo texto com o primeiro. As regras so em ingls e eu as compreendo
to bem como qualquer outro falante nativo de ingls. Isto me possibilita relacionar um
conjunto de smbolos formais com o outro, e o que entendo por formal aqui que posso
identificar os smbolos por seu formato. Nestas circunstncias, imagine tambm que me
forneam um terceiro calhamao contendo smbolos em chins junto com algumas
(
(1)
No estou dizendo, claro, que o prprio Schank est comprometido com essas
afirmaes.
(
(**)
indistinguveis para os falantes nativos de chins e mesmo que eu tenha qualquer programa
formal, ainda assim eu no compreendo nada. Pelas mesmas razes, o computador de
Schank no compreende nada das histrias, sejam elas em chins, em ingls, ou em
qualquer outro idioma. No caso do idioma chins eu desempenho o papel do computador, e
nos casos onde no desempenho tal papel, o computador no faz nada alm do que eu
poderia fazer, ou seja, em ambas as situaes no h compreenso.
b) Com relao a segunda afirmao - que o programa explica a
compreenso humana - podemos verificar que o computador e seu programa no fornecem
as condies suficientes para a compreenso, visto que o computador e o programa esto
funcionando e no existe compreenso. Mas ser que ele fornece uma condio necessria
ou uma contribuio significativa para a compreenso? Uma das afirmaes sustentada pela
IA no sentido forte esta: quando eu compreendo uma histria em ingls, o que estou
fazendo exatamente o mesmo - ou talvez mais que o mesmo - que fazia no caso da
manipulao dos smbolos em chins. No caso do ingls, que eu compreendo, h muito
mais do que manipulao de smbolos formais do que em relao ao chins, que eu no
compreendo. No estou demonstrando que esta afirmao falsa, mas certamente me
parece sem credibilidade no exemplo. A plausibilidade de tal suposio deriva-se do fato de
que podemos construir um programa que ter os mesmos inputs e outputs como um falante
nativo, alm disso pressupomos que falantes tm algum nvel de descrio onde eles so
tambm instanciaes de um programa. Com base nestas duas suposies, assumimos que
mesmo se o programa de Schank no constituir uma explicao completa da compreenso,
talvez constitua uma parte de tal explicao. Ou seja, assumimos como possibilidade
emprica, embora sem razes para supor que ela seja verdadeira (uma vez que ela apenas
sugerida e no demonstrada) que o programa de computador irrelevante para minha
compreenso da histria. No caso do idioma chins tenho tudo que a IA poderia colocar em
mim por intermdio de um programa, e mesmo assim no compreendo nada. No caso do
ingls compreendo tudo e at agora no tenho nenhuma razo para supor que minha
compreenso tenha alguma relao com programas de computador - isto , com operaes
computacionais especificadas sobre elementos puramente formais. Na medida em que o
programa definido em termos de operaes computacionais baseadas em elementos
puramente formais, o que o exemplo sugere que estes no tm conexo com a
2).
3)
(
(3)
um sistema global, e o sistema compreende a histria. Essa pessoa tem uma grande tabela a
sua frente na qual esto escritas as regras, tem um bloco de papel de rascunho, lpis para
fazer clculos; alm disso tem um "banco de dados" com um conjunto de smbolos em
chins. Assim sendo, a compreenso no deve ser atribuda a um simples indivduo, mas a
totalidade de um sistema do qual ele faz parte".
Minha resposta a teoria dos sistemas simples: deixe o indivduo
internalizar todos estes elementos do sistema. Ele memoriza as regras da tabela e o banco
de dados com smbolos chineses e ento ele far todos os clculos em sua cabea. O
indivduo, desse modo, incorpora todo o sistema. No h nada no sistema que ele no possa
abarcar. Podemos at dispensar o quarto e supor que ele trabalha do lado de fora. Do
mesmo jeito, ele continuar no compreendendo nada de chins; portanto, o sistema no
compreende nada porque no h nada neste sistema que no esteja nele. Se ele no
compreende, ento o sistema no poder compreender, pois o sistema somente uma parte
dele.
Na realidade, sinto-me at embaraado ao dar uma resposta a teoria dos
sistemas. A idia que embora uma pessoa no compreenda chins, de alguma forma a
conjuno pessoa e pedacinhos de papel poderia compreender chins. No fcil para mim
imaginar como algum que no estivesse preso a uma ideologia acharia esta idia plausvel.
Entretanto, penso que muita gente que est comprometida com a ideologia da IA no sentido
forte, estar propensa a dizer algo muito parecido com isto. Vamos ento explorar um
pouco mais esta idia. De acordo com uma verso desta viso, enquanto o homem do
exemplo dos sistemas internalizados no compreende chins como um falante nativo o faz
(pois, por exemplo, ele no sabe que a histria se refere a restaurante e hamburguers etc...)
ainda assim o homem como sistema de manipulao de smbolos formais realmente
compreende chins. O subsistema do homem, que o sistema de manipulao de smbolos
formais para o chins no deve ser confundido com o subsistema para ingls.
Assim sendo, existem dois subsistemas no homem, um compreende ingls, o
outro, chins, e "acontece que os dois sistemas tm muito pouco a ver um com o outro".
Mas, quero responder que no somente eles tem muito pouco a ver um com o outro, como
eles no so nem remotamente parecidos. O subsistema que compreende ingls (supondo
que possamos usar este jargo "subsistema" no momento) sabe que as histrias so sobre
restaurantes e comer hamburguers, etc, ele sabe que esto formulando questes sobre
restaurantes e que eles as responde da melhor maneira possvel, atravs de vrias
inferncias sobre o contedo da histria e assim por diante. Mas o sistema chins no sabe
nada disso; enquanto o subsistema ingls sabe que hamburguers referem-se a hamburguers
o sistema chins sabe somente que "tal e tal rabisco" seguido de "outro rabisco". Tudo que
ele sabe que vrios smbolos formais esto sendo introduzidos numa das extremidade e
so manipulados de acordo com regras escritas em ingls e que outro smbolos esto saindo
na outra extremidade. O ponto essencial do exemplo original era argumentar que tal
manipulao de smbolos por si s no poderia ser suficiente para compreender chins nem
no sentido literal, porque o homem poderia escrever "tal e tal rabisco" e depois "outro
rabisco tal e tal" sem entender nada de chins. E no vem de encontro ao argumento
postular subsistemas dentro do homem, pois tais subsistemas no se desempenham melhor
do que o homem; eles no tem nem sequer alguma semelhana com o falante de ingls (ou
subsistema). De fato, na descrio feita, o subsistema chins simplesmente uma parte do
subsistema ingls, uma parte que processa uma manipulao de smbolos sem sentido de
acordo com regras em ingls.
Perguntemo-nos em primeiro lugar o que motiva a objeo dos sistemas - ou
seja que fundamentos independentes existem para se dizer que o agente deve ter um
subsistema dentro dele que literalmente compreende histrias em chins? Pelo que sei os
nicos fundamentos so que no exemplo eu tenho o mesmo input e o mesmo output dos
falantes nativos de chins e um programa que os intermedia. Mas o ponto do exemplo foi
mostrar que isto no poderia ser suficiente para a compreenso no sentido no qual
compreendo histrias em ingls, pois uma pessoa e portanto, o conjunto de sistemas que a
compe pode ter a combinao adequada de input, output e programa e mesmo assim no
compreender nada no sentido no qual compreendo ingls. A nica motivao para dizer que
deve haver um subsistema em mim que compreende chins que eu tenho um programa e
que posso passar no teste de Turing; posso enganar falantes nativos de chins. (Cf. Turing,
1950). Mas precisamente um dos pontos em discusso a adequao do teste de Turing. O
exemplo mostra que pode haver dois "sistemas", ambos passam no teste de Turing mas
apenas um deles compreende; e no um argumento contra este ponto dizer que se ambos
passam no teste de Turing, ambos devem compreender, uma vez que esta afirmao no
vem ao encontro do argumento de que o sistema em mim que compreende ingls muito
mais completo do que o sistema que meramente processa chins. Em suma, a objeo do
sistema escamoteia a questo ao insistir em apresentar argumentos que o sistema deve
compreender chins.
Alm do mais, a objeo dos sistemas parece levar a conseqncias
absurdas. Se tenho de concluir que deve haver cognio em mim com base no fato de que
tenho um certo tipo de input e de output e um programa entre estes, ento parece que todos
os tipos de subsistemas no-cognitivos tornar-se-o cognitivos. Por exemplo, meu
estmago tem um nvel de descrio no qual faz processamento de informao e instancia
um grande nmero de programas de computador, mas suponho que no queremos dizer que
ele tem compreenso. Se aceitamos a objeo dos sistemas fica difcil de perceber como
poderamos evitar de dizer que o estmago, o corao, o fgado etc.. so todo subsistemas
que compreendem pois no haveria nenhuma maneira, em princpio, para distinguir a
motivao para dizer que o subsistema chins compreende de dizer que o estmago
compreende. (No constitui uma resposta para este ponto dizer que o sistema chins tem
informao como input e ouput e que o estmago tem comida e produtos alimentares como
input e output, pois do ponto de vista do agente e do meu ponto de vista, no h informao
nem na comida e nem no chins; o chins s um conjunto de rabiscos sem significado. A
informao no caso do chins est somente nos olhos dos programadores e dos intrpretes e
no h nada que os impea de tratar o input e o output de meus rgos digestivos como
informao, se eles assim o quiserem).
Este ltimo ponto diz respeito a alguns problemas na IA no sentido forte e
vale a pena fazer aqui uma pequena digresso. Se a IA no sentido forte um ramo da
Psicologia ela deve ser capaz de distinguir sistemas que so genuinamente mentais daqueles
que no o so. Ela deve ser capaz de distinguir os princpios com os quais a mente trabalha
daqueles com os quais sistemas no-mentais trabalham; de outra maneira ela no poderia
oferecer explicaes acerca da natureza do que especificamente mental. A distino
mental e no-mental no pode estar apenas no olho do observador - ela deve ser intrnseca
aos sistemas, pois de outra maneira ficaria a critrio do observador tratar pessoas como
no-mentais e furaces como mentais. Mas com muita freqncia, na literatura sobre IA, a
distino esmaecida de tal maneira que torna-se desastroso afirmar que a IA uma
investigao cognitiva. McCarthy, por exemplo, escreve: "Podemos dizer que mquinas to
simples como os termostatos tm crenas, e ter crenas parece ser uma caracterstica de
muitas mquinas capazes de resolver problemas" (McCarthy, 1979). Qualquer um que
pense que a IA no sentido forte tem alguma chance como uma teoria da mente deve
ponderar as implicaes desta observao. Pedem-nos para aceitar como sendo uma
descoberta da IA no sentido forte que o pedao de metal na parede que usamos para regular
a temperatura tenha crenas da mesma maneira que ns, nossas esposas e nossos filhos tm
crenas, e alm do mais que a "maioria" das outras mquinas da sala - telefone, gravador,
mquina de somar, interruptor eltrico, etc - tambm tenham crenas. No objetivo deste
artigo argumentar ou discutir com McCarthy, por isso foi afirmaremos o seguinte, sem
argumentar. O estudo da mente comea com o fato de que seres humanos tm crenas e que
termostatos, telefones e mquinas de somar no as tm. Se voc concebe uma teoria que
nega tal ponto, voc produziu um contra-exemplo e a teoria falsa. Tm-se a impresso de
que os pesquisadores da IA que escrevem esse tipo de coisa pensam que podem escapar
disto porque eles realmente no levam tais coisas a srio e no pensam que algum o far.
Proponho, pelo menos para o momento, levar estas coisas a srio. Pense por um minuto o
que seria necessrio para estabelecer que o pedao de metal na parede tem, de fato, crenas
- crenas com direcionalidade, contedo proposicional, condies de satisfao; crenas
que tm a possibilidade de ser fortes ou fracas, ansiosas ou seguras, dogmticas, racionais
ou supersticiosas, f cega ou especulaes hesitantes. O termostato no um candidato
plausvel a ter crenas, nem tampouco o so o estmago, o fgado, a mquina de somar ou o
telefone. Contudo, uma vez que estamos levando esta idia a srio, note-se que se fosse
verdadeira ela seria fatal para a proposta da IA de ser uma cincia da mente, pois ento a
mente estaria em todos os lugares. O que queremos saber o que distingue a mente de
termostatos, fgados, etc. Se McCarthy estivesse certo a IA no sentido forte no teria a
menor possibilidade de nos dizer em que se baseia esta distino.
II - A objeo do robot - (Yale).
"Suponhamos que escrevssemos um programa diferente daquele de Schank.
Suponhamos que pusssemos um computador dentro de um robot e que esse computador
no fosse apenas receber smbolos formais como input e produzir esses smbolos como
output, mas que ele fosse operar o robot de tal maneira que este fizesse coisas como
perceber, andar, mover-se, pregar pregos, comer, beber ou qualquer outra coisa. O robot
teria uma cmara de televiso adaptada a ele- o que o capacitaria a ver - teria braos e
pernas que o capacitariam a agir e tudo isso seria controlado pelo seu crebro-computador.
Tal robot teria compreenso genuna e outros estados mentais - ele seria diferente do
computador de Schank".
A primeira coisa a notar acerca da objeo do robot que ela tacitamente
concede que a cognio no s uma questo de manipulao de smbolos, uma vez que
esta objeo acrescenta um conjunto de relaes causais com o mundo externo. Mas a
resposta a objeo do robot que o acrscimo de tais capacidades (perceptual e motora)
no acrescenta nada em termos de compreenso ou intencionalidade ao programa original
de Schank. Para perceber isso basta notar que o mesmo experimento mental se aplica ao
caso do robot. Suponha que em vez de um computador dentro de um robot voc me ponha
dentro do quarto e me d novamente smbolos em chins com instrues em ingls para
combinar estes smbolos com outros smbolos em chins. Suponhamos que sem eu saber,
alguns dos smbolos em chins que chegam a mim venham de uma cmara de televiso
adaptada ao robot,e que outros smbolos em chins que estou produzindo sirvam para fazer
com que o motor dentro do robot mova seus braos e pernas. importante enfatizar que
tudo que estou fazendo manipular smbolos formais. Estou recebendo "informao" do
"aparato perceptual" do robot e estou fornecendo "instrues" para seu aparato motor sem
saber o que estou fazendo. Eu sou o homnculo do robot, mas de maneira diferente do
homnculo tradicional, sem saber o que est ocorrendo. No sei nada a no ser as regras
para manipulao de smbolos. Neste caso pode-se dizer que o robot no tem estados
intencionais; ele se move como resultado de seus circuitos eltricos e do seu programa.
Alm do mais, a instanciao de um programa no produz estados intencionais de nenhum
tipo relevante. Tudo que est sendo feito seguir instrues formais acerca da manipulao
de smbolos formais.
III - A objeo do Simulador Cerebral (Berkeley e M.I.T.).
"Suponhamos que ns projetssemos um programa que no represente a
informao que temos acerca do mundo como o caso da informao dos roteiros de
Schank. O programa simula a seqncia efetiva da atividade dos neurnios nas sinapses do
crebro de um falante nativo de chins, quando este entende histrias e d respostas a elas.
A mquina recebe histrias em chins e questes acerca delas como input; ela simula a
estrutura formal dos crebros dos chineses ao processar estas histrias e fornece respostas
em chins como outputs. Podemos at imaginar que a mquina no opera com um nico
programa serial, mas com um conjunto de programas operando em paralelo, da mesma
maneira que crebros humanos possivelmente operam quando processam linguagem
natural. Em tal caso teramos de dizer que a mquina entenderia histrias, e se nos
recusssemos a dizer isso no teramos tambm que negar que falantes de chins entendem
histrias? Ao nvel das sinapses, o que poder ser diferente no programa do computador e
no programa do crebro dos chineses?"
Antes de responder esta objeo quero fazer uma digresso para notar que
esta uma objeo estranha de ser feita por qualquer adepto da IA (funcionalismo, etc.).
Penso que a idia central da IA no sentido forte que no precisamos saber como o crebro
funciona para saber como a mente funciona. A hiptese bsica que existe um nvel de
operaes mentais que consiste em processos computacionais sobre elementos formais que
constitui a essncia do mental e pode ser realizado atravs de diferentes processos
cerebrais, da mesma maneira que um programa computacional pode ser rodado em
diferente hardwares. A pressuposio da IA no sentido forte que a mente est para o
crebro assim como o programa est para o hardware, e podemos entender a mente sem
fazer neurofisiologia. Se tivssemos que saber como o crebro trabalha para fazer IA esta
no constituiria um problema. Contudo, mesmo que cheguemos a um conhecimento muito
grande das operaes do crebro, isto no seria suficiente para produzir a compreenso.
Seno vejamos: imagine que ao invs de um ser monolingual num quarto combinando
smbolos tenhamos um homem operando um conjunto complexo de canos de gua com
vlvulas que os conectam. Quando o homem recebe smbolos em chins, ele consulta no
programa escrito em ingls quais vlvulas ele deve abrir e quais ele deve fechar. Cada
conexo na tubulao corresponde a uma sinapse no crebro do chins e o sistema
equipado de tal maneira que aps ativar as conexes adequadas - ou seja, aps abrir as
torneiras adequadas - as respostas em chins aparecem no final da tubulao.
Onde est a compreenso neste sistema? Ele recebe chins como input,
simula a estrutura formal das sinapses do crebro do chins e produz textos em chins
como output. Mas o homem certamente no entende chins, e nem tampouco a tubulao, e
se estivermos tentados a adotar o que penso ser a idia absurda de que de alguma maneira a
conjuno homem e tubulao compreende, preciso lembrar que em princpio o homem
pode internalizar a estrutura formal da tubulao de gua e realizar toda a atividade
neuronal em sua imaginao. O problema com o simulador cerebral que ele est
simulando coisas erradas acerca do crebro. Na medida em que ele simula unicamente a
estrutura formal das seqncias de atividades neuronais nas sinapses, ele no est
simulando o aspecto mais importante do crebro, ou seja, suas propriedades causais e sua
habilidade para produzir estados intencionais. Que as propriedades formais no so
suficientes para produzir propriedades causais mostrado pelo exemplo da tubulao de
gua: podemos ter todas as propriedades formais sem que estas tenham sido derivadas das
propriedades causais neurobiolgicas relevantes.
IV - A objeo da combinao - (Berkeley e Stanford).
"As trs objees anteriores podem no ser convincentes como uma
refutao do contra-exemplo do quarto chins, mas se elas forem tomadas conjuntamente
so convincentes e decisivas. Imagine um robot com um computador em forma de crebro
alojado em sua cavidade craniana; imagine que o computador est programado com todas
as sinapses de um crebro humano; imagine que o comportamento do robot indistinguvel
do comportamento humano e agora pense nisto tudo como um sistema unificado e no
apenas como um computador com inputs e outputs. Certamente em tal caso teramos que
atribuir intencionalidade ao sistema."
Concordo inteiramente que em tal caso acharamos racional e mesmo
irresistvel aceitar a hiptese de que o robot teria intencionalidade, na medida em que no
soubssemos mais nada sobre ele. Alm da aparncia e comportamento, os outros
elementos da combinao so irrelevantes. Se pudssemos construir um robot cujo
comportamento no se distinguisse de uma grande parcela do comportamento humano, ns
lhe atribuiramos intencionalidade, apesar de termos algumas razes para no faz-lo. No
precisaramos saber de antemo que seu crebro-computador um anlogo formal do
crebro humano.
Mas realmente no vejo como isto poderia ajudar nas pretenses da IA no
sentido forte e eis porqu: de acordo com a IA no sentido forte, instanciar um programa
formal com o input e o output adequados condio suficiente e constitutiva da
seu comportamento no faz sentido, e podemos ver que os animais so feitos de material
semelhante ao nosso: olhos, nariz, pele, etc. Dada a coerncia do comportamento animal e a
pressuposio de um mesmo material causal subjacente a ele, pressupomos que o animal
deve ter estados mentais subjacentes a seu comportamento e que esses estados mentais
devem ser produzidos por mecanismos feitos de um material semelhante ao nosso.
Certamente poderamos fazer pressuposies semelhantes acerca do robot, mas na medida
em que soubssemos que seu comportamento resulta de um programa formal e que as
propriedades causais efetivas de sua substncia fsica fossem irrelevantes, abandonaramos
a pressuposio de intencionalidade.
Existem
outras
duas
respostas
ao
meu
exemplo
que
aparecem
freqentemente (e ento valeria a pena discuti-las) mas elas realmente fogem ao ponto.
V - A objeo das outras mentes (Yale).
"Como saber que outras pessoas compreendem chins ou qualquer outra
coisa? Unicamente por seus comportamentos. Ora, o computador pode passar por testes de
comportamento to bem quanto elas (em princpio), assim se atribumos cognio a outras
pessoas, devemos em princpio atribu-la tambm a computadores".
A objeo merece apenas uma resposta curta. O problema em questo no
como eu sei que outras pessoas tm estados cognitivos, mas o que estou lhes atribuindo ao
dizer que elas tm estados cognitivos. O ponto central do argumento que no poderiam
ser apenas processos computacionais e seus outputs porque estes podem existir sem o
estado cognitivo. No resposta para este argumento fingir que estados cognitivos no
existem. Em "cincias cognitivas" pressupe-se a realidade e a possibilidade de se conhecer
o mental, da mesma maneira que em cincias fsicas temos de pressupor a realidade e a
capacidade de se conhecer objetos fsicos.
VI - A objeo das "vrias casas" (Berkeley).
"A totalidade de seu argumento pressupe que a IA trata apenas de
computadores analgicos e digitais. Ocorre que este apenas o estgio atual da tecnologia.
Quaisquer que sejam esses processos causais que voc diz serem essenciais para a
intencionalidade (pressupondo que voc esteja correto), possivelmente seremos capazes de
construir dispositivos que exibiro esses processos causais e isto ser tambm inteligncia
diferente. Esta uma questo emprica, semelhante questo de se a fotossntese pode ser
feita com uma qumica diferente da que compe a clorofila.
Mas o ponto principal do presente argumento que um modelo puramente
formal nunca ser, por si s, suficiente para produzir intencionalidade, pois as propriedades
formais no so constitutivas da intencionalidade e no tm poderes causais, com exceo
do poder de produzir o estgio seguinte do formalismo quando a mquina est rodando. E
mesmo que uma realizao especfica do modelo formal venha a exibir propriedades
causais, estas so irrelevantes pois este modelo pode tambm ser efetivado atravs de uma
realizao diferente onde tais propriedades estaro ausentes. Mesmo que por algum milagre
falantes de chins realizem exatamente o programa de Schank, podemos colocar o mesmo
programa em falantes de ingls, tubulao de gua ou computadores; nenhum destes
compreende chins e nem tampouco o programa.
O que importa nas operaes do crebro no a sombra do formalismo dado
pela seqncia das sinapses, mas as propriedades efetivas de tais seqncias. Todos os
argumentos em favor da verso forte da IA que examinei insistem em delinear estas
sombras lanadas pela cognio para ento sustentar que tais sombras so a prpria
cognio.
Com o intuito de concluir, quero enunciar alguns pontos filosficos gerais
implcitos no argumento. Por uma questo de clareza tentarei fazer isto na forma de
perguntas e respostas e comeo com a velha questo:
"Pode uma mquina pensar?"
A resposta , obviamente, sim. Ns somos precisamente tais mquinas.
"Sim, mas pode um artefato, uma mquina feita pelo homem, pensar?"
Assumindo que seja possvel produzir artificialmente uma mquina com
sistema nervoso, neurnios com axonios e dendritos e tudo o mais, suficientemente
semelhante a ns, de novo a resposta a esta questo parece ser, obviamente, "sim". Se voc
pode duplicar exatamente as causas, voc pode duplicar os efeitos. E de fato seria possvel
produzir conscincia, intencionalidade e tudo o mais usando princpios qumicos diferentes
dos usados por seres humanos. Como eu disse, uma questo emprica.
"O.K., mas pode um computador digital pensar?"
qumicas dos crebros humanos. Mas eu no deveria estar surpreso, pois a no ser que se
aceite alguma forma de dualismo, o projeto da IA no sentido forte no tem nenhuma
chance. O projeto consiste em reproduzir e explicar o mental projetando programas, mas a
no ser que a mente no seja apenas conceitual, mas empiricamente independente do
crebro, este projeto no poder ser executado, pois o programa completamente
independente de qualquer realizao. A no ser que se acredite que a mente separvel do
crebro, conceitual e empiricamente - um dualismo em uma verso forte - no se pode
esperar reproduzir o mental escrevendo e rodando programas, uma vez que estes devem ser
independentes dos crebros ou de qualquer outra forma especfica de sua instanciao. Se
operaes mentais consistem em operaes computacionais sobre smbolos formais, seguese que eles no tm nenhuma conexo importante com o crebro, e a nica conexo seria
que o crebro poderia ser um dentre os mltiplos tipos de mquinas capazes de instanciar o
programa. Esta forma de dualismo no a verso cartesiana tradicional, a qual sustenta que
existem dois tipos de substncias, mas cartesiana no sentido de que ela insiste que aquilo
que especificamente mental no tem nenhuma conexo intrnseca com as propriedades
efetivas do crebro. Este dualismo subjacente mascarado pelo fato de que a literatura
sobre IA contm freqentes ataques contra o "dualismo", mas o que estes autores no
percebem que sua posio pressupe uma verso forte do dualismo.
"Pode uma mquina pensar?" Meu ponto de vista que somente uma
mquina pode pensar, e de fato apenas mquinas de um tipo muito especial, a saber,
crebros e mquinas que tm os mesmos poderes causais do crebro. E esta a principal
razo pela qual a IA no sentido forte tem to pouco a dizer acerca do pensamento: ela no
tem nada a dizer acerca de mquinas. Por definio, ela trata de programas, e programas
no so mquinas. O que quer que seja a intencionalidade, um fenmeno biolgico o qual
deve ser to causalmente dependente da bioqumica especfica de suas origens como o a
lactao, a fotossntese ou quaisquer outros fenmenos biolgicos. Ningum suporia que
poderamos produzir leite e acar rodando uma simulao computacional das seqncias
formais da lactao e da fotossntese; mas no que diz respeito a mente muitas pessoas
querem acreditar em tal milagre por causa de sua fidelidade profunda ao dualismo:
concebem a mente como processos formais e como algo independente de causas materiais
especficas, algo que no ocorre com o acar e o leite.