Vous êtes sur la page 1sur 31

Maquinaria Computacional e Inteligência

Alan M. Turing

1 O jogo da imitação

Proponho-me considerar a pergunta «podem as máquinas pensar?» Devíamos


começar por definir o significado dos termos «máquina» e «pensar». É possível
enquadrar as definições de modo a reflectir, tanto quanto possível, o uso corrente
das palavras, mas esta atitude é perigosa. Se tivermos de descobrir o significado
das palavras «máquina» e «pensar» examinando o seu uso corrente é difícil evitar a
conclusão de que tem de se procurar o significado e a resposta para a pergunta
«podem as máquinas pensar?» num inquérito estatístico como a sondagem de
Gallup. Mas isto é absurdo. Em vez de procurar tal definição, vou substituir a esta
outra pergunta, que está intimamente relacionada com a primeira e se exprime com
palavras relativamente inequívocas.

Pode-se descrever a nova forma do problema em termos de um jogo a que


chamamos «jogo da imitação». Joga-se com três pessoas, um homem (A), uma
mulher (B), e um interrogador (C) que pode ser de um ou outro sexo. O interrogador
está numa sala separada de onde estão os outros dois. O objectivo do jogo para o
interrogador é determinar qual dos outros dois é o homem e qual é a mulher. O
interrogador conhece-os pelas etiquetas X e Y, e no final do jogo afirmará ou «X é A
e Y é B» ou «X é B e Y é A». O interrogador pode fazer perguntas a A e a B assim:

C: Diga-me, por favor, X, qual é o comprimento do seu cabelo?

Suponha-se agora que X é na verdade A, pelo que A terá de responder. O objectivo


de A no jogo é tentar fazer que C se engane na identificação. A sua resposta,
portanto, poderia ser:

! .'"!
A: Tenho um corte de cabelo curto, e as madeixas mais compridas têm cerca de
vinte e três centímetros.

De maneira a que os timbres de voz não ajudem o interrogador, as respostas devem


ser escritas, ou melhor ainda, dactilografadas. O cenário ideal é ter um telétipo a
comunicar entre ambas as salas. Alternativamente, a questão e as respostas podem
ser repetidas por um intermediário. O objectivo do jogo para o terceiro jogador (B) é
ajudar o interrogador. A melhor estratégia para ela provavelmente será responder
honestamente. Pode acrescentar coisas como «a mulher sou eu, não lhe dês
ouvidos!» às suas respostas, mas de nada adiantará, visto que o homem pode fazer
comentários semelhantes.

Perguntamos agora: «O que acontecerá quando uma máquina toma o lugar de A


neste jogo?» Irá o interrogador enganar-se com tanta frequência como quando o
jogo é jogado por um homem e uma mulher? Estas perguntas substituem a nossa
pergunta original: «podem as máquinas pensar?»

2 Crítica do Novo Problema

Tal como se pergunta: «Qual a resposta à questão nesta nova forma?» pode-se
perguntar: «Vale a pena investigar esta nova questão?» Vamos investigar sem
demora esta última, abreviando assim uma regressão infinita.

O novo problema tem a vantagem de traçar uma linha razoavelmente nítida entre as
capacidades físicas e intelectuais de um homem. Nenhum engenheiro ou químico
afirma ser capaz de produzir um material que seja indistinguível da pele humana. É
possível que isto se possa fazer a dada altura, mas mesmo supondo que esta
invenção estivesse disponível sentiríamos que pouco interesse havia em tentar
tornar uma «máquina pensante» mais humana revestindo-a com essa carne
artificial. A forma em que colocámos o problema reflecte este facto na condição que
impede o interrogador de ver ou tocar os outros competidores, ou de ouvir as suas
vozes. Pode-se evidenciar algumas outras vantagens do critério proposto com
exemplos de pergunta e resposta. Assim:

! .'.!
Q: Por favor, escreva-me um soneto acerca de Forth Bridge.
A: Não conte comigo para isso. Nunca fui capaz de escrever poesia.
Q: Adicione 34957 a 70764
A: (Pausa durante certa de 30 segundos e dá a resposta) 105621
Q: Joga xadrez?
A: Sim.
Q: Tenho K em K1 e nenhuma outra peça. Você tem apenas K em K6 e R em R1. É
A sua vez de jogar. Qual a sua jogada?
A: (Após uma pausa de 15 segundos) R-R8 mate.

O método de pergunta e resposta parece adequado para introduzir quase qualquer


um dos campos de empreendimento humano que desejemos incluir. Não queremos
penalizar a máquina pela sua inabilidade de brilhar em competições de beleza, nem
penalizar um homem por perder numa corrida contra um avião. As condições do
nosso jogo tornam irrelevantes estas incapacidades. As «testemunhas» podem
gabar-se, se considerarem oportuno, tanto quanto lhes aprouver, dos seus
encantos, força ou heroísmo, mas o interrogador não pode exigir demonstrações
práticas.
Pode-se talvez criticar o jogo alegando que as hipóteses são demasiado
desfavoráveis à máquina. Se o homem procurasse fingir ser a máquina, daria
evidentemente um mau espectáculo. Denunciar-se-ia imediatamente pela sua
lentidão e inexactidão aritmética. Não podem as máquinas levar a cabo algo que se
deve descrever como «pensamento» mas que é muito diferente daquilo que um
homem faz? Esta é uma objecção bastante forte, mas ao menos podemos afirmar
que se se pode, não obstante, conceber uma máquina para ter um desempenho
satisfatório no jogo da imitação, não precisamos de nos preocupar com esta
objecção.
Poder-se-ia insistir que durante o «jogo da imitação» a melhor estratégia que a
máquina pode seguir será talvez algo que não a imitação do comportamento de um
homem. Talvez sim, mas parece-me improvável que haja qualquer grande efeito
deste tipo. Em todo o caso, não há intenção de investigar aqui a teoria do jogo, e
pressuporemos que a melhor estratégia é tentar dar as respostas que um homem
naturalmente daria.

! .''!
3 As máquinas envolvidas no jogo

A pergunta que fazemos em §1 não estará completamente definida antes de termos


especificado o que queremos dizer com a palavra «máquina». É natural que
desejemos permitir que se aplique todo o tipo de técnicas de construção às nossas
máquinas. Também desejamos permitir a possibilidade de um engenheiro ou equipa
de engenheiros construírem uma máquina que funcione, mas cujo modo de
funcionamento não pode ser satisfatoriamente descrito pelos seus construtores, por
terem aplicado um método em grande medida experimental. Por fim, desejamos
excluir das máquinas homens que nasceram da maneira habitual. É difícil enquadrar
as definições de maneira a satisfazer estas três condições. Pode-se insistir, por
exemplo, que a equipa de engenheiros deve ser toda do mesmo sexo, mas isto não
seria realmente satisfatório, pois provavelmente é possível criar um indivíduo a partir
de uma única célula de pele (digamos) de um homem. Fazê-lo seria um feito de
engenharia biológica merecedor da mais elevada distinção, mas não estaríamos
inclinados a encará-lo como um exemplo de «construção de uma máquina
pensante». Isto leva-nos a abandonar a exigência de permitir todo o tipo de técnica.
Estamos mais dispostos a fazê-lo tendo em vista o facto de que o presente
interesse nas «máquinas pensantes» foi estimulado por um tipo particular de
máquina, normalmente denominada «computador electrónico» ou «computador
digital». Seguindo esta sugestão, só permitimos que entrem no nosso jogo
computadores digitais.
Esta restrição parece, à primeira vista, bastante drástica. Tentarei mostrar que não é
realmente assim. Para fazer isto é preciso dar uma breve explicação da natureza e
propriedades destes computadores.
Também se pode afirmar que esta identificação das máquinas com os
computadores digitais, como o nosso critério para «pensante», só será insatisfatório
se (contrariamente ao que acredito), afinal os computadores digitais forem
incapazes de ter um bom desempenho no jogo.
Há já uma série de computadores digitais em condições de funcionamento e pode-
se perguntar: «Por que não tentar a experiência de imediato? Seria fácil satisfazer
as condições do jogo. Podia-se usar alguns interrogadores e compilar estatísticas
para mostrar quão frequentemente se fazia a identificação correcta.» A resposta
abreviada é que não estamos a perguntar se todos os computadores digitais se

! .'/!
sairiam bem ou não no jogo nem se os computadores presentemente disponíveis se
sairiam bem ou não, mas se há ou não computadores imagináveis que o pudessem
fazer. Mas esta é apenas a resposta abreviada. Veremos esta questão a uma luz
diferente, mais tarde.

4 Computadores Digitais

Pode-se explicar a ideia por trás dos computadores digitais afirmando que estas
máquinas são concebidas para realizar quaisquer operações que possam ser feitas
por um computador humano. O computador humano supostamente segue regras
fixas; não tem autoridade para se desviar delas em qualquer detalhe que seja.
Podemos supor que estas regras são fornecidas num livro, que é alterado sempre
que ele passa a uma nova tarefa. Tem também um fornecimento ilimitado de papel,
que usa para fazer os seus cálculos. Pode também fazer multiplicações e adições
numa «máquina-secretária», mas isto não é importante.
Se usamos a explicação anterior como definição corremos o perigo de cair num
argumento circular. Evitamos isto apresentando um esboço dos meios por que se
obtém o efeito desejado. Um computador digital pode ser habitualmente encarado
como algo que consta de três partes:

1) Memória.
2) Unidade executiva.
3) Controlo.

A memória é um depósito de informação e corresponde ao papel do computador


humano quer este seja o papel onde ele faz os seus cálculos ou onde é impresso o
seu livro de regras. Na medida em que o computador humano faz cálculos
mentalmente, uma parte da memória corresponderá à sua memória.
A unidade executiva é a parte que leva a cabo as diversas operações individuais
envolvidas num cálculo. O que estas operações individuais são variará de máquina
para máquina. Normalmente, pode-se fazer operações bastante extensas tais como:
«Multiplicar 3540675445 por 7076345687» mas em algumas máquinas só são
possíveis operações muito simples, como «imprime o algarismo “0”».

! .'3!
Referimos que o «livro das regras» fornecido ao computador é substituído na
máquina por uma parte da memória. Passa então a chamar-se «tabela de
instruções». Cabe ao controlo garantir que estas instruções são seguidas
correctamente e na ordem certa. O controlo é construído de tal maneira que isto
acontece necessariamente.
A informação na memória é normalmente dividida em pacotes de dimensões
razoavelmente pequenas. Numa máquina, por exemplo, um pacote pode consistir
em dez dígitos decimais. Atribui-se números às partes da memória em que os
diversos pacotes de informação são armazenados, de uma maneira simétrica. Uma
instrução típica seria:
«Soma o número armazenado na posição 6809 ao que está na 4302 e coloca o
resultado na última posição no espaço de memória.»
Não vale a pena dizer que isto não ocorreria na máquina expresso em inglês.
Estaria mais provavelmente codificado numa forma como «6809430217». Aqui «17»
diz qual entre diversas operações possíveis se deve realizar sobre os dois números.
Neste caso a operação é a descrita anteriormente, ou seja, «soma o número […]»
Observar-se-á que a instrução ocupa 10 dígitos, formando assim um pacote de
informação, muito convenientemente. O controlo normalmente fará que as
instruções sejam cumpridas na ordem das posições em que são armazenadas, mas
ocasionalmente pode-se encontrar uma instrução como:
«Agora obedece à instrução armazenada na posição 5606 e continua a partir daí»
Ou novamente:
«Se a posição 4505 contém 0, obedece de seguida à instrução armazenada em
6707, de contrário segue em frente.»
As instruções destes últimos tipos são muito importantes porque tornam possível
que se repita várias vezes uma sequência de operações, até que seja satisfeita uma
determinada condição, mas ao fazê-lo para obedecer, não a instruções novas em
cada repetição, mas às mesmas, uma vez após outra. Pegando numa analogia
doméstica. Suponha-se que a mãe quer que o Toninho visite o sapateiro, todas as
manhãs quando vai para a escola, para ver se os sapatos dela estão prontos, pode
repetir o pedido ao filho todas as manhãs. Alternativamente, pode afixar, uma só
vez, um lembrete no corredor da casa, que o Toninho verá ao sair para a escola,
que lhe dirá para ir ver se os sapatos estão prontos e para destruir o lembrete
quando voltar, caso traga os sapatos com ele.

! .'+!
O leitor tem de aceitar como facto que se pode construir, e na verdade já se
construiu, computadores digitais segundo os princípios que descrevemos, e que
podem realmente imitar com muita precisão as acções de um computador humano.
A descrição que fizemos do livro das regras usado pelo nosso computador humano
é, como é óbvio, uma ficção conveniente. Os computadores humanos reais
recordam de facto aquilo que têm de fazer. Se se quer fazer uma máquina imitar o
comportamento do computador humano numa operação complexa tem de se lhe
perguntar como se faz e depois traduzir a resposta para uma tabela de instruções.
Por norma descreve-se a elaboração de tabelas de instruções como
«programação». «Programar uma máquina para realizar a operação A» significa
colocar na máquina a tabela de instruções apropriada, de modo a que esta faça A.
Uma variante curiosa da ideia de computador digital é um «computador digital com
um elemento aleatório». Estes têm instruções que envolvem o lançamento de um
dado ou algum processo electrónico equivalente; uma instrução desse género pode
ser, por exemplo: «Lança o dado e coloca o número resultante no espaço de
memória 1000». Por vezes descreve-se tal máquina como detentora de livre-arbítrio
(embora eu próprio não usasse esta expressão). Não é normalmente possível
determinar a partir da observação e uma máquina se tem ou não um elemento
aleatório, pois pode-se obter um efeito similar por dispositivos tais como fazer
depender as escolhas dos dígitos das décimas (casas decimais?) de (.
Na sua maioria, os computadores digitais que existem tem apenas uma memória
finita. Não há dificuldade teórica na ideia de um computador com uma memória
ilimitada. Evidentemente que só uma parte finita se pode usar de cada vez. De igual
modo, só uma quantidade finita pode ter sido construída, mas podemos imaginar
que se adiciona cada vez mais, de acordo com o que se exige. Tais computadores
têm um interesse teórico especial e chamar-se-ão «computadores de capacidade
infinitiva».
A ideia de um computador digital é antiga. Charles Babbage, Professor Lucasiano
de Matemática, em Cambridge, entre 1828 e 1839, projectou tal máquina, chamada
«Máquina Analítica», mas esta nunca foi concluída. Embora Babbage tivesse todas
as ideias essenciais, a sua máquina não era na altura uma possibilidade assim tão
atraente. A velocidade então disponível seria definitivamente mais rápida do que um
computador humano mas aproximadamente 100 vezes mais lenta do que uma

! .'4!
máquina Manchester, uma das mais lentas entre as máquinas modernas. A
memória seria puramente mecânica, usando discos e cartões.
O facto de a Máquina Analítica de Babbage ser inteiramente mecânica ajuda a
livrar-nos de uma superstição. Dá-se frequentemente importância ao facto de os
computadores digitais modernos serem eléctricos e o sistema nervoso ser também
eléctrico. Como a máquina de Babbage não era eléctrica e como todos os
computadores digitais são, num certo sentido, equivalentes, vemos que este uso da
electricidade não pode ter importância teórica. Claro que a electricidade
normalmente intervém no que diz respeito à transmissão veloz de sinais, pelo que
não é surpreendente que a encontremos em ambas estas relações. No sistema
nervoso, os fenómenos químicos são pelo menos tão importantes como os
eléctricos. Em certos computadores o sistema de memória é sobretudo acústico.
Vê-se assim que a característica do uso da electricidade é apenas uma semelhança
muito superficial. Se desejamos encontrar tais semelhanças, devemos procurar
antes analogias matemáticas funcionais.

5 Universalidade dos Computadores Digitais

Os computadores digitais considerados na última secção podem ser classificados


entre as «máquinas de estados discretos». Estas são as máquinas que passam de
um estado a outro através de saltos ou cliques súbitos. Estes estados são diferentes
ao ponto de se poder ignorar a possibilidade de confusão entre eles. Estritamente
falando, não há tais máquinas. Tudo está realmente em movimento contínuo. Mas
há muitos tipos de máquina dos quais se pode vantajosamente pensar que são
máquinas de estados discretos. Por exemplo, ao considerar os interruptores para
um sistema de iluminação, é uma ficção conveniente que cada interruptor tem de
estar definitivamente ligado ou definitivamente desligado. Tem de haver posições
intermédias, mas para o que em geral nos interessa podemos ignorá-las. Como
exemplo de uma máquina de estados discretos podemos considerar uma roda que
gira 120º por segundo, mas que se pode parar através de uma alavanca
manobrável a partir do exterior; além disso, acende-se uma luz numa das posições
da roda. Podia-se descrever abstractamente esta máquina, da seguinte maneira: O
estado interno da máquina (que é descrito pela posição da roda) pode ser q1, q2, ou
q3. Há um sinal de entrada i0 ou i1 (posição da alavanca). O estado interno a

! .'*!
qualquer momento é determinado pelo último estado e sinal de entrada, de acordo
com a tabela:

[inserir gráfico p. 9 do pdf]

Os sinais de saída, a única indicação externamente visível do estado interno (a luz)


são descritos pela tabela:

[inserir gráfico p.9 do pdf]

Este exemplo é típico das máquinas de estados discretos. Pode-se descrevê-las


através de tais tabelas, desde que tenham apenas um número finito de estados
possíveis.
Parece que, dado o estado inicial da máquina e os sinais de entrada, é sempre
possível prever todos os estados futuros. Isto é reminiscente da perspectiva de
Laplace, de que a partir do estado completo do universo num dado momento do
tempo, tal como descrito pelas posições e velocidades de todas as partículas, deve
ser possível prever todos os estados futuros. A previsão que aqui consideramos
está, todavia, bastante mais próxima da praticabilidade do que a considerada por
Laplace. O sistema do «universo como um todo» é tal que erros muitíssimo
pequenos nas condições iniciais podem ter um efeito avassalador mais tarde. A
deslocação de um único electrão por um bilionésimo de centímetro num dado
momento pode fazer a diferença entre um homem ser morto por uma avalanche um
ano mais tarde, ou escapar. É uma propriedade essencial dos sistemas mecânicos
a que chamámos «máquinas de estados discretos» a não ocorrência deste
fenómeno. Mesmo quando consideramos as máquinas físicas efectivas em vez das
máquinas idealizadas, um conhecimento razoavelmente exacto do estado num
momento produz conhecimento razoavelmente exacto qualquer número de etapas
mais à frente.
Como mencionámos, os computadores digitais subsumem-se na classe das
máquinas de estados discretos. Mas o número de estados de que uma tal máquina
é capaz é por norma extraordinariamente grande. Por exemplo, o número para a
máquina que agora funciona em Manchester é cerca de 2165000, ou seja, cerca de
1050000. Compare-se isto com o nosso exemplo da rodaå comutadora [clicking

! ./1!
wheel] descrita atrás, que tinha três estados. Não é difícil ver por que razão o
número de estados seria tão imenso. O computador inclui uma memória
correspondendo ao papel usado por um computador humano. Tem de ser possível
inscrever na memória qualquer uma das combinações de símbolos que poderiam ter
sido escritas no papel. Pela simplicidade, suponhamos que só dígitos de 0 a 9 são
usados como símbolos. As variações caligráficas são ignoradas. Suponha-se que se
dá ao computador 100 folhas de papel, cada uma contendo 50 linhas, cada uma
com espaço para 30 dígitos. Então o número de estados é 10100$50$30, ou seja,
10150000. Isto é sobre o número de estados de três máquinas de Manchester
conjuntamente. O logaritmo para a base dois do número de estados é normalmente
chamado «capacidade de memória» da máquina. Assim a máquina de Manchester
tem uma capacidade de memória de cerca de 165 000 e a máquina de rodas do
nosso exemplo cerca de 1.6. Se se coloca duas máquinas juntas, as suas
capacidades têm de ser somadas para obter a capacidade da máquina resultante.
Isto leva à possibilidade de afirmações como «A máquina de Manchester contém 64
pistas magnéticas, cada uma com capacidade de 2560, oito válvulas electrónicas
com uma capacidade de 1280. Quantidades variadas de armazenamento até cerca
de 300 perfazem um total de 174 380.»
Dada a tabela correspondente a uma máquina de estados discretos é possível
prever o que esta fará. Não há razão pela qual este cálculo não seria realizado por
meio de um computador digital. Desde que pudesse ser feito com rapidez suficiente,
o computador digital podia imitar o comportamento de qualquer máquina de estados
discretos. O jogo da imitação poderia então ser jogado com a máquina em causa
(como B) e o computador digital imitador (como A) e o interrogador seria incapaz de
os distinguir. Evidentemente o computador digital tem de ter uma capacidade de
memória adequada além de funcionar com rapidez suficiente. Além disso, tem de
ser programado de novo para cada nova máquina que se deseja imitar.
Esta propriedade especial dos computadores digitais, de poderem imitar qualquer
máquina de estados discretos, é descrita afirmando que são máquinas universais. A
existência de máquinas com esta propriedade tem a consequência importante de
que, à parte considerações de velocidade é desnecessário projectar várias
máquinas novas para fazer vários processos computacionais. Podem todos ser
feitos com um computador digital, adequadamente programado para cada caso.

! ./)!
Ver-se-á que como consequência disto todos os computadores digitais são
equivalentes em certo sentido.
Podemos agora considerar mais uma vez o aspecto levantado no fim do §3. Foi
provisoriamente sugerido que a questão «Podem as máquinas pensar?» deveria ser
substituída por «Haverá computadores digitais imagináveis que teriam um bom
desempenho no jogo da imitação?» Se desejamos podemos tornar isto
superficialmente mais geral e perguntar «Haverá máquinas de estados discretos
que teriam um bom desempenho?» Mas em vista da propriedade da universalidade
vemos que uma ou outra destas questões é equivalente a esta, «Fixemos a nossa
atenção sobre um computador digital particular C. Será verdade que modificando
este computador para ter uma memória adequada, aumentando apropriadamente a
sua velocidade de acção, e munindo-o de um programa apropriado, pode-se fazer C
desempenhar satisfatoriamente o papel de A no jogo da imitação, ficando o papel de
B a cargo de um homem?»

6 Perspectivas Contrárias Sobre a Questão Principal

Podemos agora considerar que o terreno foi preparado e estamos prontos para
avançar para o debate sobre a nossa questão, «Podem as máquinas pensar?» e a
sua variante citada no final da última secção. Não podemos de todo abandonar a
forma original do problema, pois as opiniões diferirão quanto ao carácter apropriado
da substituição e temos de pelo menos ouvir o que tem de ser dito a este respeito.
Tornarei as coisas mais simples para o leitor se explicar primeiro as minhas próprias
crenças sobre o assunto. Considere-se primeiro a forma mais precisa da questão.
Creio que dentro de cerca de 50 anos será possível programar computadores, com
uma capacidade de memória de cerca de 109, fazê-los jogar o jogo da imitação tão
bem que um interrogador mediano não terá mais do que 70% de probabilidade de
fazer a identificação correcta depois de 5 minutos de questionamento. Creio que a
questão original, «Podem as máquinas pensar?», é demasiado insignificante para
merecer discussão. Não obstante, creio que no final do século o uso das palavras e
a opinião geral informada ter-se-ão alterado tanto que se poderá falar de máquinas
a pensar sem esperar ser contradito. Acredito além disso que não se serve qualquer
propósito útil escondendo estas crenças. A perspectiva popular de que os cientistas
procedem inexoravelmente a partir de factos bem estabelecidos para factos bem

! ./"!
estabelecidos, nunca sendo influenciados por qualquer conjectura improvada, está
completamente equivocada. Desde que se esclareça quais são factos comprovados
e quais são conjecturas, nenhum mal pode daí resultar. As conjecturas são muito
importantes, uma vez que sugerem rumos de investigação úteis.
Passo agora a considerar opiniões opostas à minha.
1 A Objecção Teológica. Pensar é uma função da alma imortal humana. Deus deu
uma alma imortal a cada homem e mulher, mas não a qualquer outro animal ou a
máquinas. Portanto nenhum animal ou máquina pode pensar.
Sou incapaz de aceitar parte alguma disto, mas procurarei responder em termos
teológicos. Consideraria o argumento mais convincente se os animais fossem
classificados com os homens, pois há mais diferença, a meu ver, entre o animado e
o inanimado típicos do que entre o homem e os outros animais. O carácter arbitrário
da perspectiva ortodoxa torna-se mais claro se consideramos como ela poderia
parecer a um membro de outra comunidade religiosa. Como encaram os cristãos a
perspectiva muçulmana de que as mulheres não têm almas? Mas deixemos este
ponto de parte e regressemos ao argumento principal. Parece-me que o argumento
citado atrás sugere uma grave restrição à omnipotência do Todo-poderoso. Admite-
se que há certas coisas que Ele não pode fazer, como fazer que um seja igual a
dois, mas não deveríamos acreditar que Ele tem a liberdade de conferir uma alma a
um elefante se considerar apropriado? Poderíamos esperar que Ele só exercesse
este poder em conjunção com uma mutação que munisse o elefante de um cérebro
apropriadamente aperfeiçoado para satisfazer as necessidades desta alma. Um
argumento de forma exactamente similar pode ser construído no caso das
máquinas. Pode parecer diferente porque é mais difícil de «engolir». Mas isto na
verdade só significa que pensamos que seria menos provável Ele considerar as
circunstâncias adequadas para conferir uma alma. As circunstâncias em causa são
discutidas no resto deste ensaio. Ao tentar construir tais máquinas não estaríamos a
usurpar irreverentemente o Seu poder de criar almas, tal como não o fazemos
quando procriamos: ao invés, somos, num ou noutro caso, instrumentos da Sua
vontade proporcionando residências para as almas que Ele cria.
Todavia, isto é mera especulação. Não fico muito impressionado com argumentos
teológicos seja o que for que se procure sustentar com eles. Tais argumentos foram
frequentemente considerados insatisfatórios no passado. No tempo de Galileu
argumentou-se que os textos, «E o Sol ficou parado […] e não se apressou a

! ./.!
declinar cerca de um dia inteiro» (Josué x. 13) e «Ele lançou os alicerces da Terra,
para que não se movesse em momento algum» (Salmo cv. 5) eram uma refutação
adequada da teoria coperniciana. Com o nosso conhecimento presente, tal
argumento parece fútil. Quando esse conhecimento não estava disponível a
impressão causada pelo argumento era completamente diferente.
2) A Objecção das «Cabeças na Areia». «As consequências de as máquinas
pensarem seriam pavorosas. Esperemos e acreditemos que não o possam fazer.»
Este argumento raramente é expresso assim tão abertamente. Mas a verdade é que
afecta a maioria de nós, que pensamos de todo no assunto. Gostamos de acreditar
que o homem é de alguma maneira subtil superior ao resto da criação. É melhor se
se puder mostrar que é necessariamente superior, pois nesse caso não há perigo
de perder a sua posição dominante. A popularidade do argumento teológico está
claramente ligada a este sentimento. É provável que seja muito forte em pessoas
intelectuais, uma vez que valorizam o poder de pensar mais intensamente do que
outros, e são mais inclinadas a basear neste poder a sua crença na superioridade
do homem.
Não penso que este argumento seja suficientemente substancial para exigir
refutação. Consolação seria mais apropriada: talvez esta devesse ser procurada na
transmigração das almas.
3) A Objecção Matemática. Há uma série de resultados da lógica matemática que
podem ser usados para mostrar que há limitações aos poderes das máquinas de
estados discretos. O mais famoso destes resultados é conhecido como teorema de
Gödel1, e mostra que em qualquer sistema lógico suficientemente poderoso pode-se
formular afirmações que nem podem ser provadas nem refutadas dentro do sistema,
a menos que possivelmente o próprio sistema seja inconsistente. Há outros
resultados, similares em alguns aspectos, devido a Church, Kleene, Rosser, e
Turing. O último resultado é o mais conveniente a considerar, visto que refere
directamente máquinas, ao passo que os outros só podem ser usados num
argumento comparativamente indirecto: por exemplo, a usar-se o teorema de Gödel
precisamos além de ter alguns meios de descrever sistemas lógicos em termos de
máquinas, e máquinas em termos de sistemas lógicos. O resultado em causa
refere-se a um tipo de máquina que é essencialmente um computador digital com
uma capacidade infinita. Afirma que há certas coisas que uma tal máquina não pode
fazer. Se está preparada para dar respostas a perguntas como no jogo da imitação,

! ./'!
haverá algumas perguntas às quais ou dará uma resposta errada, ou não dará
resposta de todo por muito tempo que se espere por uma resposta. Pode
evidentemente haver muitas perguntas semelhantes, e perguntas que não podem
ser respondidas por uma máquina podem ser satisfatoriamente respondidas por
outra. Supomos evidentemente por enquanto que as perguntas são do tipo a que
uma resposta «Sim» ou «Não» é apropriada, em vez de perguntas como «O que
pensa de Picasso?» As perguntas com as quais sabemos que as máquinas
forçosamente não funcionam são deste tipo, «Considere-se a máquina especificada
como se segue […] Irá esta máquina alguma vez responder “Sim” a qualquer
pergunta?» Os pontos são para trocar por uma descrição de uma máquina em
forma canónica, que poderia ser algo como a usada em §5. Quando a máquina
descrita tem uma certa relação comparativamente simples com a máquina que é
interrogada, pode-se mostrar que a resposta ou está errada ou não se apresentará.
Este é o resultado matemático: argumenta-se que prova uma incapacidade das
máquinas à qual o intelecto humano não está sujeito.
A resposta breve a este argumento é que embora esteja estabelecido que há
limitações aos poderes de qualquer máquina particular, foi apenas afirmado, sem
qualquer género de prova, que nenhuma limitação semelhante se aplica ao intelecto
humano. Mas não creio que possamos dispensá-lo tão levianamente. Sempre que a
uma destas máquinas se coloca a apropriada pergunta crucial e esta dá uma
resposta definida, sabemos que esta resposta tem de estar errada e isto dá-nos um
certo sentimento de superioridade. Será este sentimento ilusório? Não há dúvida de
que é inteiramente genuíno, mas não penso que se lhe deva dar demasiada
importância. Nós próprios damos muito frequentemente respostas erradas a
perguntas para que possamos ter justificação para ficar muito agradados perante
tais indícios da falibilidade por parte das máquinas. Além disso, a nossa
superioridade só pode ser sentida numa tal ocasião relativamente àquela máquina
sobre a qual marcámos o nosso triunfo insignificante. Não haveria questão quanto a
triunfar simultaneamente sobre todas as máquinas. Resumindo, portanto, poderia
haver homens mais inteligentes do que qualquer máquina, mas então, mais uma
vez, poderia haver outras máquinas mais inteligentes, e assim sucessivamente.
Os que se atêm ao argumento matemático estariam, segundo penso,
maioritariamente dispostos a aceitar o nosso jogo de imitação como uma base para

! .//!
discussão. Os que crêem nas duas objecções anteriores provavelmente não
estariam interessados em quaisquer critérios.
4 O Argumento da Consciência. Este argumento é muito bem expresso na Oração
Lister do Professor Jefferson, de 1949, a qual cito. «Só quando uma máquina
pudesse escrever um soneto ou compor um concerto por causa de pensamentos e
emoções sentidos, e não pela queda acidental de símbolos, poderíamos concordar
que a máquina iguala o cérebro — isto é, não só escrevê-los mas também saber
que os escreveu. Nenhum mecanismo poderia sentir (e não meramente assinalar
artificialmente, um apetrecho fácil) prazer perante os seus sucessos, dor quando as
suas válvulas se fundem, sentir-se confortado com lisonjas, humilhado com os seus
erros, encantado pelo sexo, zangado ou deprimido quando não consegue obter o
que deseja.»
Este argumento parece uma negação da validade do nosso teste. Segundo a forma
mais extrema desta perspectiva a única maneira por que se poderia ter certeza de
que uma máquina pensa é ser a máquina e sentir-se a si próprio pensar. Poder-se-
ia então descrever estes sentimentos ao mundo, mas evidentemente ninguém teria
justificação para reparar nisso. Analogamente, segundo esta perspectiva a única
maneira de saber que um homem pensa é ser esse homem particular. É na verdade
o ponto de vista solipsista. Pode ser a perspectiva mais lógica de sustentar mas
torna difícil a comunicação de ideias. A está sujeito a acredita «A pensa mas B não»
enquanto B acredita «B pensa mas A não». Em vez de argumentar continuamente
sobre este ponto é usual ter a convenção cortês de que toda a gente pensa.
Estou certo de que o Professor Jefferson não deseja adoptar o ponto de vista
extremo e solipsista. Provavelmente estaria inteiramente disposto a aceitar o jogo
da imitação como um teste. O jogo (omitido o jogador B) é frequentemente usado na
prática sob o nome de viva voce para descobrir se alguém realmente compreende
algo ou se o «aprendeu à maneira de um papagaio». Ouçamos uma parte de tal
viva voce:

Interrogador: No primeiro verso do seu soneto, que «Comparar-te-ei a um dia de


Verão», será que «um dia de Primavera» não serviria tão bem ou melhor?
Testemunha: Não escandiria.
Interrogador: E que tal «um dia de Inverno»? Esse escandiria bem.
Testemunha: Sim, mas ninguém quer ser comparado a um dia de Inverno.

! ./3!
Interrogador: Diria que o Sr. Pickwick lhe fazia lembrar o Natal?
Testemunha: De certa maneira.
Interrogador: No entanto o Natal é um dia de Inverno e não creio que o Sr. Pickwick
se importaria com a comparação.
Testemunha: Não creio que você esteja a falar a sério. Por um dia de Inverno
entende-se um dia de Inverno típico, em vez de um dia especial, como o Natal.

E assim sucessivamente. O que diria o Professor Jefferson se a máquina de


escrever sonetos fosse capaz de responder desta maneira em viva voce? Não sei
se ele consideraria que a máquina «meramente assinalava artificialmente» estas
respostas, mas se as respostas fossem tão satisfatórias e constantes como na
passagem anterior não penso que ele a descreveria como «um apetrecho fácil».
Esta expressão, segundo penso, é concebida para cobrir tais dispositivos como a
inclusão na máquina de uma gravação de alguém a ler um soneto, com o interruptor
apropriado para a ligar de vez em quando.
Resumindo então, penso que na sua maioria os defensores do argumento da
consciência poderiam ser persuadidos a abandoná-lo em vez de se verem forçados
a aceitar a posição solipsista. Estarão então provavelmente dispostos a aceitar o
nosso teste.
Não desejo dar a impressão de que penso não haver mistério acerca da
consciência. Há, por exemplo, algo paradoxal ligado a qualquer tentativa de a
localizar. Mas não penso que estes mistérios têm necessariamente de ser
resolvidos antes de podermos responder à pergunta de que nos ocupamos neste
ensaio.
5 Argumentos de Incapacidades Várias. Estes argumentos adoptam a forma,
«Concedo-te que podes fazer as máquinas fazerem todas as coisas que
mencionaste mas nunca serás capaz de fazer uma máquina fazer X». Numerosas
características X são sugeridas a este respeito. Apresento uma selecção:

Ser simpática, engenhosa, amigável (p. 448), ter iniciativa, ter sentido de humor,
distinguir o bem do mal, cometer erros (p. 448), apaixonar-se, apreciar morangos
com natas (p. 448), fazer alguém apaixonar-se por ela, aprender com a experiência
(pp. 456 f.), usar adequadamente as palavras, ser sujeito do seu próprio
pensamento (p. 449) ter tanta diversidade de comportamento como um homem,

! ./+!
fazer algo realmente novo (p. 450). (Algumas destas incapacidades recebem
consideração especial como indicado pelos números de página.)

Normalmente não se oferece qualquer sustentação a favor destas afirmações. Creio


que se fundam sobretudo no princípio da indução científica. Um homem viu milhares
de máquinas na sua vida. Pelo que vê delas retira uma série de conclusões gerais.
São feias, cada uma delas é concebida para um objectivo muito limitado, quando
são precisas para um objectivo minimamente diferente são inúteis, a variedade de
comportamento de qualquer uma delas é muito pequena, etc., etc. Naturalmente o
homem conclui que estas são propriedades necessárias das máquinas em geral.
Muitas destas limitações estão associadas com a capacidade de memória muito
pequena da maioria das máquinas. (Estou a pressupor que a ideia de capacidade
de memória se alarga de alguma maneira para abranger máquinas além das
máquinas de estados discretos.
A definição exacta não importa visto que nenhuma precisão matemática é exigida
na presente discussão.) Há alguns anos, quando muito pouco se ouvira falar sobre
computadores digitais, era possível suscitar muita incredulidade a este respeito, se
se mencionasse as suas propriedades sem descrever a sua construção. Isso devia-
se presumivelmente a uma aplicação semelhante do princípio da indução científica.
Estas aplicações do princípio são, evidentemente, em grande medida inconscientes.
Quando uma criança que se queimou teme o fogo e mostra que o teme evitando-o,
diria que ela aplicou a indução científica. (Podia evidentemente também descrever o
seu comportamento de muitas outras maneiras.) As obras e costumes do género
humano não parecem um material muito adequado ao qual aplicar a indução
científica. Tem de se investigar uma parte muito considerável do espaço-tempo,
para se obter resultados fidedignos. De contrário podemos (como fazem
maioritariamente as crianças inglesas) decidir que toda a gente fala inglês e que é
tolo aprender francês.
Há todavia observações especiais a fazer sobre muitas das incapacidades
mencionadas. A incapacidade para apreciar morangos com natas pode ter parecido
frívola ao leitor. Possivelmente poder-se-ia fazer uma máquina apreciar este prato
delicioso, mas qualquer tentativa de fazer que uma máquina fizesse isto seria idiota.
O que é importante acerca desta incapacidade é contribuir para algumas das outras
incapacidades, p. ex., para a dificuldade de ocorrer entre homem e máquina o

! ./4!
mesmo tipo de amistosidade que ocorre entre homem branco e homem branco ou
entro homem negro e homem negro.
A afirmação de que «as máquinas não podem cometer erros» parece curiosa.
Sentimo-nos tentados a responder, «Serão piores por isso?» Mas adoptemos uma
atitude mais favorável, tentando ver o que realmente se quer dizer. Penso que esta
crítica pode ser explicada em termos do jogo da imitação. Afirma-se que o
interrogador poderia distinguir a máquina do homem simplesmente dando-lhes
alguns problemas de aritmética. A máquina seria desmascarada devido à sua
extraordinária precisão. A resposta a isto é simples. A máquina (programada para
jogar o jogo) não tentaria dar as respostas correctas aos problemas aritméticos.
Introduziria deliberadamente erros de uma maneira calculada para confundir o
interrogador. Uma falha mecânica provavelmente mostrar-se-ia através de uma
decisão inapropriada quanto ao género de erro aritmético a cometer. Mesmo esta
interpretação da crítica não é suficientemente favorável. Mas não dispomos de
espaço para avançar muito mais nesta direcção. Parece-me que esta crítica
depende de uma confusão entre dois tipos de erro. Podemos chamar-lhes «erros de
funcionamento» e «erros de conclusão». Os erros de funcionamento são devidos a
alguma falha mecânica ou eléctrica que é a causa de a máquina se comportar de
outra maneira que não aquela para que foi concebida. Nos debates filosóficos
gostamos de ignorar a possibilidade de tais erros; discutimos portanto «máquinas
abstractas». Estas máquinas abstractas são ficções matemáticas em vez de
objectos físicos. Por definição são incapazes de erros de funcionamento. Neste
sentido podemos verdadeiramente afirmar que «as máquinas nunca podem cometer
erros». Os erros de conclusão só podem surgir quando se atribui algum significado
aos sinais de saída da máquina. A máquina poderia, por exemplo, escrever
equações matemáticas, ou frases em português. Quando uma proposição falsa é
redigida dizemos que a máquina cometeu um erro de conclusão. Não há
evidentemente qualquer razão para afirmar que uma máquina não pode cometer
este tipo de erro. Poderia não fazer fosse o que fosse se não escrever
repetidamente «0 = 1». Para tomar um exemplo menos perverso, poderia ter algum
método para retirar conclusões por indução científica. Temos de esperar que tal
método leve ocasionalmente a resultados erróneos.
A afirmação de que uma máquina não pode ser sujeito do seu próprio pensamento
só pode evidentemente ser respondida se se puder mostrar a máquina tem algum

! ./*!
pensamento com algum conteúdo. Não obstante, «o conteúdo das operações de
uma máquina» parece de facto significar algo, pelo menos para as pessoas que
lidam com ela. Se, por exemplo, a máquina procurava encontrar uma solução para a
equação x2 – 40x – 11 = 0 haveria a tentação de descrever esta equação como
parte do assunto da máquina naquele momento. Neste sentido uma máquina pode
indubitavelmente ter-se a si própria como assunto. Pode ser usada para ajudar a
fazer os seus próprios programas, ou a prever o efeito de alterações na sua própria
estrutura. Ao observar os resultados do seu próprio comportamento pode modificar
os seus próprios programas de maneira a alcançar algum objectivo mais
eficazmente. Trata-se de possibilidades do futuro próximo, em vez de sonhos
utopistas.
A crítica de que uma máquina não pode ter muita diversidade de comportamento é
apenas uma maneira de dizer que não pode ter muita capacidade de
armazenamento. Até muito recentemente uma capacidade de armazenamento de
mesmo mil dígitos era muito rara.
As críticas que tomamos aqui em consideração são frequentemente formas
disfarçadas do argumento da consciência. Normalmente se se sustenta que uma
máquina pode fazer uma destas coisas, e se descreve o tipo de método que a
máquina poderia usar, não se causará grande impressão. Pensa-se que o método
(seja este qual for, pois tem de ser mecânico) é realmente bastante grosseiro.
Compare-se o parêntesis na afirmação de Jefferson citada na página ?.
6 A Objecção de Lady Lovelace. A nossa informação mais detalhada sobre a
máquina analítica de Babbage vem das memórias de Lady Lovelace. Aí afirma, «A
Máquina Analítica não tem pretensões de originar seja o que for. Pode fazer
qualquer coisa que saibamos como lhe ordenar que execute» (itálicos dela). Esta
afirmação é citada por Hartree (p. 70), que acrescenta: «Isto não sugere que pode
não ser possível construir equipamento electrónico que irá «pensar por si próprio»,
ou no qual, em termos biológicos, se pudesse estabelecer um reflexo condicionado,
que serviria de base para a «aprendizagem». Seja isto possível em princípio ou não,
é uma questão estimulante e excitante, sugerida por alguns destes
desenvolvimentos recentes. Mas não parecia que as máquinas construídas ou
projectadas na altura tivessem esta propriedade.»
Estou em total acordo com Hartree neste aspecto. Observar-se-á que ele não afirma
que as máquinas em causa não têm a propriedade, mas antes que os indícios

! .31!
disponíveis a Lady Lovelace não a encorajaram a acreditar que a tinham. É
perfeitamente possível que as máquinas em causa tivessem em certo sentido esta
propriedade. Pois suponha-se que uma máquina de estados discretos tem esta
propriedade. A máquina analítica era um computador digital universal, pelo que, se
a sua capacidade de memória e velocidade fossem apropriadas, poder-se-ia, por
meio de programação adequada, fazê-la imitar a máquina em causa. Provavelmente
este argumento não ocorreu à Condessa nem a Babbage. Em todo o caso não
havia sobre eles a obrigação de afirmarem tudo o que podia ser afirmado.
Toda esta questão será considerada mais uma vez sob a rubrica das máquinas
capazes de aprender.
Uma variante da objecção de Lady Lovelace afirmar que uma máquina «nunca pode
fazer seja o que for de realmente novo». Pode-se evitar isto momentaneamente com
o refrão, «Nada de novo debaixo do Sol». Quem pode estar certo de que o
«trabalho original» que fez não foi simplesmente o crescer da semente nele
plantada pela educação, ou o efeito de seguir princípios gerais bem conhecidos.
Uma melhor variante da objecção afirma que uma máquina nunca pode «apanhar-
nos de surpresa». Esta afirmação é um desafio mais directo e pode ser enfrentada
directamente. As máquinas tomam-me de surpresa com muita frequência. Isto
sucede em grande medida porque não faço cálculos suficientes para decidir o que
esperar que elas façam, ou antes porque fazendo um cálculo, o faço de uma
maneira apressada e descuidada, correndo riscos. Talvez diga para comigo,
«Suponho que a voltagem aqui deveria ser a mesma que ali: em todo o caso
pressuponhamos que é .»
Como é natural, engano-me frequentemente, e o resultado é uma surpresa para
mim quando a experiência é feita e estas pressuposições foram esquecidas. Estas
admissões deixam-me exposto a censuras sobre os meus maus hábitos, mas não
lançam qualquer dúvida sobre a minha credibilidade quando dou testemunho das
surpresas de que tenho experiência.
Não espero que esta resposta silencie o meu crítico. Este provavelmente dirá que
tais surpresas se devem a algum acto mental criativo da minha parte, e não
reflectem qualquer crédito da parte da máquina. Isto leva-nos de volta ao argumento
da consciência, e para longe da ideia de surpresa. É uma linha de argumentação
que temos de considerar fechada, mas talvez valha a pena observar que a
apreciação de algo como surpreendente exige tanto um «acto mental criativo», quer

! .3)!
o acontecimento surpreendente tenha origem num homem, num livro, numa
máquina, ou em qualquer outra coisa.
A perspectiva de que a máquina não pode originar surpresas deve-se, segundo
creio, a uma falácia a que os filósofos e os matemáticos estão particularmente
sujeitos. Esta é a pressuposição de que assim que um facto se apresenta a uma
mente todas as consequências desse facto surgem à mente em simultâneo com o
facto. É uma pressuposição muito útil sob muitas circunstâncias, mas esquecemo-
nos demasiado facilmente que é falsa. Uma consequência natural de o fazer é que
então se pressupõe que não há virtude no mero desenvolver de consequências a
partir de dados e princípios gerais.
7 Argumento da Continuidade no Sistema Nervoso. O sistema nervoso seguramente
não é uma máquina de estados discretos. Um pequeno erro na informação sobre o
tamanho de um impulso nervoso que atinge um neurónio pode fazer uma grande
diferença no tamanho do impulso de saída. Pode-se argumentar que, sendo assim,
não se pode esperar ser capaz de imitar o comportamento do sistema nervoso com
um sistema de estados discretos.
É verdade que uma máquina de estados discretos tem de ser diferente de uma
máquina contínua. Mas se aderimos às condições do jogo de imitação, o
interrogador não será capaz de tirar qualquer partido desta diferença. A situação
pode ser tornar-se mais clara se considerarmos uma outra máquina contínua mais
simples. Um analisador diferencial servirá perfeitamente. (Um analisador diferencial
é um certo tipo de máquina não do tipo de estados discretos usada para alguns
tipos de cálculo.) Algumas destas fornecem as suas respostas em forma
dactilografada, e assim são adequadas para participar no jogo. Não seria possível a
um computador digital prever exactamente que respostas o analisador diferencial
daria ao problema, mas seria perfeitamente capaz de dar o género correcto de
resposta. Por exemplo, se lhe pedissem para dar o valor de ( (na realidade cerca de
3.1416) seria razoável escolher aleatoriamente entre os valores 3.12, 3.13, 3.14,
3.15, 3.16 com as probabilidades de 0.05, 0.15, 0.55, 0.19, 0.06 (digamos). Nestas
circunstâncias seria muito difícil ao interrogador distinguir o analisador diferencial do
computador digital.
8 O Argumento da Informalidade do Comportamento. Não é possível produzir um
conjunto de regras com o fim de descrever o que um homem deve fazer cada
conjunto de circunstâncias concebível. Poder-se-ia por exemplo ter uma regra

! .3"!
segundo a qual se deve parar quando se vê um semáforo vermelho, e arrancar
quando se vê um verde, mas e se por algum problema ambos aparecem juntos?
Pode-se talvez decidir que é mais seguro parar. Mas alguma dificuldade
suplementar pode muito bem surgir desta decisão mais tarde. Procurar fornecer
regras de conduta para cobrir cada eventualidade, mesmo as que surgem de
semáforos, parece impossível. Concordo com tudo isto.
A partir daqui argumenta-se que não podemos ser máquinas. Procurarei reproduzir
o argumento, mas receio que dificilmente lhe farei jus. Parece desenrolar-se um
pouco desta maneira. «Se cada homem tivesse um conjunto definido de regras de
conduta pelas quais regia a sua vida não seria melhor do que uma máquina. Mas
não há tais regras, pelo que os homens não podem ser máquinas.» O meio
indistribuído é deslumbrante. Não penso que o argumento seja alguma vez
formulado exactamente desta maneira, mas creio que este é ainda assim o
argumento usado. Pode todavia haver uma certa confusão entre «regras de
conduta» e «leis de comportamento» a obscurecer a questão. Por «regras de
conduta» entendo preceitos como «Pára se vires o semáforo vermelho», sobre os
quais se pode agir, e dos quais podemos ter consciência. Por «leis de
comportamento» entendo leis da natureza aplicadas ao corpo de um homem tais
como «se o beliscas ele guincha». Se fazemos «leis de comportamento que regem
a sua vida» substituir «leis de conduta pelas quais rege a sua vida» no argumento
citado, o meio indistribuído deixa de ser insuperável. Pois cremos que não só é
verdade que ser regido por leis de comportamento envolve ser um género de
máquina (embora não necessariamente uma máquina de estados discretos), mas
que conversamente ser uma tal máquina envolve ser regido por tais leis. Todavia,
não nos podemos convencer a nós próprios com tanta facilidade da ausência de leis
de comportamento completas como da ausência de leis de conduta completas. A
única maneira que conhecemos de encontrar tais leis é a observação científica, e
seguramente não conhecemos quaisquer circunstâncias nas quais pudéssemos
afirmar, «Investigámos o suficiente. Não há tais leis.»
Podemos demonstrar mais energicamente que qualquer afirmação semelhante seria
injustificada. Pois suponha-se que podíamos estar seguros de encontrar tais leis se
existissem. Então dada uma máquina de estados discretos seria seguramente
possível descobrir por observação o suficiente sobre esta para prever o seu
comportamento futuro, e isto num período de tempo razoável, digamos, mil anos.

! .3.!
Mas não parece que isto seja assim. Configurei no computador de Manchester um
programa que usa apenas 1000 unidades de memória, por meio do qual a máquina
a que se forneceu um número de dezasseis dígitos responde com outro em dois
segundos. Desafiaria qualquer pessoa a aprender com estas respostas o suficiente
acerca do programa para ser capaz de prever quaisquer respostas a valores que
não foram usados.
9 O Argumento da Percepção Extra-Sensorial. Pressuponho que o leitor está
familiarizado com a ideia de percepção extra-sensorial, e o significado dos seus
quatro itens, nomeadamente, telepatia, clarividência, precognição, e psicocinese.
Estes fenómenos perturbantes parecem negar todas as nossas ideias científicas
usuais. Como gostaríamos de as desacreditar! Infelizmente os indícios estatísticos,
pelo menos a favor da telepatia, são esmagadores. É muito difícil rearranjar as
nossas ideias de modo a encaixar nelas estes novos factos. Uma vez que se os
tenha aceitado não parece um salto muito grande passar à crença em fantasmas e
duendes. A ideia de que os nossos corpos se movem simplesmente segundo as leis
conhecidas da física, além de outras ainda não descobertas mas análogas, seria
uma das primeiras a cair.
Este argumento é, segundo me parece, bastante forte. Pode-se afirmar em resposta
que muitas teorias científicas parecem continuar funcionais na prática, apesar de
chocar com a P.E.S.; que na verdade se pode continuar a viver muito bem se nos
esquecemos disso. Isto não é grande consolo e há o receio de que pensar seja
precisamente o tipo de fenómeno em que a P.E.S. pode ser especialmente
relevante.
Um argumento mais específico baseado na P.E.S. poderia ser mais ou menos
assim: «Joguemos o jogo da imitação, usando como testemunhas um homem que
seja bom como receptor telepático, e um computador digital. O interrogador pode
colocar perguntas como «A que naipe pertence a carta que tenho na minha mão
direita?» O homem, por telepatia ou clarividência, dá a resposta correcta 130 vezes
em 400 cartas. A máquina só pode adivinhar à sorte e talvez consiga 104 correctas,
pelo que o interrogador faz a identificação correcta.» Há uma possibilidade
interessante que se abre aqui. Suponha-se que o computador digital contém um
gerador aleatório de números. Nesse caso será natural usá-lo para decidir que
resposta dar. Mas então o gerador aleatório de números estará sujeito aos poderes
psicocinéticos do interrogador. Talvez esta psicocinese possa ser a causa de a

! .3'!
máquina adivinhar correctamente mais amiúde do que seria de esperar num cálculo
de probabilidades, pelo que o interrogador pode ser ainda incapaz de fazer a
identificação correcta. Por outro lado, ele poderia ser capaz de adivinhar
correctamente sem qualquer questionamento, por clarividência. Com a P.E.S. tudo
pode acontecer.
Se se admite a telepatia, será necessário tornar mais rigoroso o nosso teste. Poder-
se-ia considerar a situação análoga à que ocorreria se o investigador estivesse a
falar consigo próprio e um dos concorrentes escutasse com o ouvido contra a
parede. Colocar os concorrentes numa «sala à prova de telepatia» satisfaria todos
os requisitos.

7 Máquinas que aprendem

O leitor terá antecipado que não tenho argumentos muito convincentes de natureza
positiva para sustentar as minhas perspectivas. Se os tivesse não me teria dado ao
trabalho de chamar a atenção para as falácias nas perspectivas contrárias.
Apresentarei agora os indícios de que disponho.
Regressemos por um momento à objecção de Lady Lovelace, que afirmava que a
máquina só pode fazer aquilo que lhe ordenamos que faça. Poder-se-ia afirmar que
um homem pode «injectar» uma ideia na máquina e que esta responderá até certo
ponto recaindo na quiescência, como uma corda de piano percutida por um martelo.
Outro símile seria uma pilha atómica de dimensões menos do que críticas: uma
ideia injectada corresponderá a um neutrão que entra na pilha a partir do exterior.
Cada um destes neutrões causará uma certa perturbação que eventualmente
esmorece. Se, todavia, o tamanho da pilha aumenta suficientemente, a perturbação
causada pela entrada desse neutrão muito provavelmente continuará a aumentar
até que toda a pilha esteja destruída. Haverá um fenómeno correspondente para
mentes e haverá um para máquinas? Parece de facto haver um para a mente
humana. A maioria deles parecem «subcríticos», ou seja, parecem corresponder
nesta analogia a pilhas de dimensões subcríticas. Uma ideia apresentada a tal
mente dará em média origem a menos do que uma ideia em resposta. Uma
proporção algo pequena será supercrítica. Uma ideia apresentada a tal mente pode
dar origem a toda uma «teoria» consistindo em ideias secundárias, terciárias e
ainda mais remotas. As mentes dos animais parecem muito definitivamente

! .3/!
subcríticas. Aderindo a esta analogia, perguntamos, «Poder-se-á fazer que uma
máquina seja supercrítica?»
A analogia da «pele de uma cebola» é também útil. Ao considerar as funções da
mente ou do cérebro encontramos certas operações que podemos explicar em
termos puramente mecânicos. Afirmamos que isto não corresponde à mente real: é
um género de pele que temos de despir se queremos encontrar a mente real. Mas
então naquilo que resta encontramos uma pele suplementar a remover, e assim
sucessivamente. Procedendo desta maneira nunca chegamos à mente «real», ou
será que chegamos eventualmente à pele que nada tem nela? No último caso toda
a mente é mecânica. (Não seria uma máquina de estados discretos, todavia. Já
debatemos isto.)
Estes dois últimos parágrafos não pretendem ser argumentos convincentes. Seria
melhor descrevê-los como «recitações tendentes a produzir crença».
O único apoio realmente satisfatório que se pode dar à perspectiva exposta no início
do §6 será a fornecida por esperar-se pelo final do século e fazer a experiência
descrita. Mas o que poderemos dizer entretanto? Que medidas se deveriam tomar
agora para que a experiência seja bem-sucedida?
Como expliquei, o problema é sobretudo de programação. Terão de se fazer
progressos na engenharia também, mas parece improvável que estes não sejam
adequados às exigências. As estimativas da capacidade de memória do cérebro
variam entre os 1010 e os 1015 dígitos binários. Inclino-me para os valores inferiores
e creio que só uma fracção muito pequena é usada para os tipos mais elevados de
pensamento. A maior parte é provavelmente usada para a retenção de impressões
visuais. Ficaria surpreso se mais do que 109 fosse necessário para jogar
satisfatoriamente o jogo da imitação, em todo o caso contra um homem cego. (Note-
se — a capacidade da Enciclopédia Britânica, 11ª edição, é de 2 $ 109.) Uma
capacidade de memória de 107 seria uma possibilidade muito previsível mesmo
segundo as técnicas do presente. Provavelmente não é de todo necessário
aumentar a velocidade operativa das máquinas. Partes de máquinas modernas que
se pode considerar análogos de células nervosas funcionam cerca de mil vezes
mais depressa do que estas. Isto deveria proporcionar uma «margem de
segurança» que poderia cobrir perdas de velocidade que surgem de muitas
maneiras. O nosso problema então é descobrir como programar estas máquinas
para jogar o jogo. Ao meu ritmo de trabalho no presente produzo cerca de mil

! .33!
dígitos de programa por dia, pelo que cerca de sessenta trabalhadores, a laborar
continuamente durante os cinquenta anos poderiam conseguir realizar a tarefa, se
nada fosse parar ao cesto do lixo. Algum método mais expedito parece desejável.
Ao procurar imitar uma mente humana adulta temos de pensar muito no processo
que a fez chegar ao estado em que se encontra. Podemos reparar em três
componentes,

a) O estado inicial da mente, digamos, no nascimento.


b) A educação a que foi sujeita.
c) Outra experiência a que tenha sido sujeita, a não ser descrita como
«educação».

Em vez de tentar produzir um programa para simular a mente adulta, por que não
tentar produzir um que simule a mente infantil? Se este fosse então sujeito a um
percurso educativo apropriado obteríamos o cérebro adulto. Presumivelmente o
cérebro infantil é algo como um bloco de notas como os que se compra nas
papelarias. Um mecanismo um tanto pequeno e muitas folhas em branco.
(Mecanismo e escrita são do nosso ponto de vista quase sinónimos.) A nossa
esperança é que haja tão pouco mecanismo no cérebro infantil que se possa
programar facilmente algo semelhante. Podemos pressupor que a quantidade de
trabalho investido na educação, como primeira aproximação, é quase a mesma que
no caso da criança humana.
Dividimos assim o nosso problema em duas partes. O programa infantil e o
processo educativo. Estas duas permanecem muito intimamente ligadas. Não
podemos esperar encontrar uma boa máquina infantil à primeira tentativa. Tem de
se experimentar ensinar tal máquina e ver como aprende. Pode-se então
experimentar outra e ver se é melhor ou pior. Há uma conexão óbvia entre este
processo e a evolução, pelas identificações

Estrutura da máquina infantil = material hereditário


Mudanças = mutações
Selecção natural = juízo do experimentalista

! .3+!
Pode-se esperar, todavia, que este processo seja mais expedito do que a evolução.
A sobrevivência do mais bem adaptado é um método lento para medir vantagens. O
experimentalista, exercendo a inteligência, deveria ser capaz de o acelerar.
Igualmente importante é o facto de não estar restrito a mutações aleatórias. Se pode
detectar a causa de alguma fraqueza pode provavelmente pensar no tipo de
mutação que a aperfeiçoará.
Não será possível aplicar à máquina exactamente mesmo processo de ensino que a
uma criança normal. Por exemplo, não se lhe dará pernas, pelo que não se lhe
poderia pedir para sair e encher o balde de carvão. Possivelmente, poderia não ter
olhos. Mas por muito bem que estas deficiências pudessem ser superadas por uma
engenharia inteligente, não se poderia mandar a criatura para a escola sem que as
outras crianças troçassem excessivamente dela. Tem de se lhe dar alguma forma
de ensino particular. Não temos de nos preocupar demasiado com as pernas, olhos,
etc. O exemplo de Miss Helen Keller mostra que a educação pode ter lugar desde
que a comunicação em ambas as direcções entre professor e aluno possam ter
lugar por um ou outro meio.
Normalmente associamos os castigos e as recompensas ao processo de ensino.
Algumas máquinas infantis simples podem ser construídas ou programadas
segundo este género de princípio. A máquina tem de ser construída de tal modo que
seja improvável a repetição dos acontecimentos que precederam por pouco tempo a
ocorrência de um sinal punitivo, ao passo que um sinal de recompensa aumente a
probabilidade de repetição dos acontecimentos que levaram a esse sinal. Estas
definições não pressupõem quaisquer sentimentos da parte da máquina. Fiz
algumas experiências com uma tal máquina infantil e consegui ensinar-lhe algumas
coisas, mas o método de ensino era demasiado heterodoxo para a experiência ser
considerada realmente bem-sucedida.
O uso de castigos e recompensas pode quando muito fazer parte do processo de
ensino. Falando de uma maneira aproximada, se o professor não tem quaisquer
outros meios de comunicação com o aluno, a quantidade de informação que o pode
alcançar não excede o número total de recompensas e castigos aplicados. Quando
uma criança tivesse aprendido a repetir «Casabianca» provavelmente sentir-se-ia
muito dorido, se o texto só pudesse ser descoberto por uma técnica de «Vinte
Perguntas», tomando cada «NÃO» a forma de um golpe. É necessário portanto ter
outras vias de comunicação «não emotivas». Se estes estão disponíveis é possível

! .34!
ensinar uma máquina por punições e recompensas a obedecer a regras dadas
numa certa linguagem, ou seja, uma linguagem simbólica. Estas ordens serão
transmitidas pelas vias «não emotivas». O uso desta linguagem diminuirá muito o
número de punições e recompensas exigidas.
As opiniões podem variar quanto à complexidade apropriada na máquina infantil.
Poder-se-ia tentar fazê-la tão simples quanto possível em consistência com os
princípios gerais. Alternativamente, poder-se-ia ter um sistema completo de
inferência lógica «integrado».1 No último caso a memória seria amplamente
ocupada por definições e proposições. As proposições teriam vários tipos de
estatuto, p. ex., factos bem estabelecidos, conjecturas, teoremas matematicamente
provados, afirmações dadas por uma autoridade, expressões com a forma lógica de
uma proposição mas não com o valor de crença. Certas proposições podem ser
descritas como «imperativas». A máquina deveria ser construída de tal modo que
mal uma imperativa é classificada como «bem estabelecida» a acção apropriada
tem automaticamente lugar. Para ilustrar isto, suponha-se que o professor diz à
máquina, «Faz os teus trabalhos de casa agora». Isto pode fazer que «O professor
diz “Faz os teus trabalhos de casa agora”» seja incluída entre os factos bem
estabelecidos. Outro facto semelhante poderia ser, «Tudo o que o professor diz é
verdade». Combinar estas pode eventualmente levar a que a imperativa, «Faz os
teus trabalhos de casa agora», seja incluída entre os factos bem estabelecidos, e
isto, pela construção da máquina, significará que o trabalho de casa começa
efectivamente a ser feito, mas o efeito é muito satisfatório. Os processos de
inferência usados pela máquina não precisam de ser tais que satisfariam os lógicos
mais exigentes. Poderia, por exemplo, não haver qualquer hierarquia de tipos. Mas
isto tem tão forçosamente de significar que ocorrerão falácias categoriais como nós
somos obrigados a cair de falésias onde não se instalou vedações. As imperativas
apropriadas (que se exprimem dentro dos sistemas, não fazendo parte das regras
do sistema) tais como «Não uses uma classe a menos que seja a subclasse de uma
classe mencionada pelo professor» pode ter um efeito similar a «Não te aproximes
demasiado da beira».
As imperativas que podem ser obedecidas por uma máquina sem membros estão
limitadas a um carácter algo intelectual, como no exemplo (fazer o trabalho de casa)
dado atrás. Entre as imperativas serão importantes as que regem a ordem pela qual
se aplicará as regras do sistema lógico envolvido. Pois em cada etapa em que se

! .3*!
usa o sistema lógico, há um número muito elevado de etapas alternativas, qualquer
uma das quais é permitido aplicar, o que diz respeito à obediência às regras do
sistema lógico. Estas escolhas fazem a diferença entre um raciocinador brilhante e
um tolo, não a diferença entre um sólido e um falacioso. Proposições que levam a
imperativas deste tipo podem ser «Quando se menciona Sócrates, usa o silogismo
em Barbara» ou «Se um método se mostrou mais rápido do que outro, não uses o
método mais lento». Algumas destas podem ser «dadas por autoridade», mas
outras podem ser produzidas pela própria máquina, p. ex., por indução científica.
A ideia de uma máquina que aprende pode parecer paradoxal a alguns leitores.
Como podem as regras operativas da máquina mudar? Estas deveriam descrever
completamente o modo como a máquina reagirá seja qual for a sua história, sejam
quais forem as mudanças que possa sofrer. As regras são assim de todo
temporalmente invariantes. Isto é inteiramente verdade. A explicação do paradoxo é
a de que as regras que mudam durante o processo de aprendizagem são de um tipo
bastante menos pretensioso, exigindo apenas uma validade efémera. O leitor pode
estabelecer uma analogia com a Constituição dos Estados Unidos.
Uma característica importante de uma máquina que aprende é a de que o seu
professor ignorará muito frequentemente o que se passa no interior, embora possa
ser ainda capaz até certo ponto de prever o comportamento do seu aluno. Isto
deveria aplicar-se com maior força à educação posterior de uma máquina que se
desenvolve a partir de uma máquina infantil cuja projecção (ou programa) foi bem-
sucedidamente posta à prova. Trata-se de um contraste nítido com o procedimento
normal ao usar uma máquina para fazer computações: o objectivo é então o de
obter uma imagem mental clara do estado da máquina em cada momento na
computação. Este objectivo só se pode alcançar por meio de uma luta. A
perspectiva de que «a máquina só pode fazer aquilo que lhe sabemos como dizer-
lhe que faça»,1 parece estranho perante isto. Maioritariamente, os programas que
podemos colocar na máquina terão como resultado a máquina fazer algo a que não
conseguimos de todo dar sentido, ou que consideramos como comportamento
inteiramente aleatório. O comportamento inteligente presumivelmente consiste num
afastamento do comportamento inteiramente disciplinado envolvido na computação,
mas um afastamento algo ligeiro, que não dê lugar a comportamento aleatório ou a
círculos repetitivos inúteis. Outro resultado importante de preparar a nossa máquina
para desempenhar o seu papel no jogo da imitação por um processo de ensino e

! .+1!
aprendizagem é que provavelmente omitir-se-á a «falibilidade humana» de uma
maneira bastante natural, ou seja, sem um «treino» especial. (O leitor deveria
harmonizar isto com o ponto de vista nas pp. 24 e 25.) Processos que são
aprendidos não produzem um resultado cem por cento certo; se o fizessem não
poderiam ser desaprendidos.
É provavelmente sensato incluir um elemento aleatório numa máquina que aprende
(ver p. 438). Um elemento aleatório é bastante útil quando procuramos uma solução
para algum problema. Suponha-se por exemplo que queríamos encontrar um
número entre 50 e 200 que fosse igual ao quadrado da soma dos seus dígitos,
poderíamos começar em 51 e então tentar 52 e prosseguir até encontrarmos um
número que funcionasse. Alternativamente, poderíamos escolher números
aleatoriamente até encontrarmos um bom. Este método tem a vantagem de ser
desnecessário manter o registo dos valores que foram tentados, mas a
desvantagem de que se pode tentar o mesmo duas vezes, mas isto não é muito
importante se há muitas soluções. O método sistemático tem a desvantagem de
poder haver um enorme bloco sem quaisquer soluções na região que se tem de
investigar primeiro. Ora, o processo de aprendizagem pode ser considerado como a
procura de uma forma de comportamento que satisfará o professor (ou um outro
critério). Visto que há provavelmente um número muito vasto de soluções
satisfatórias o método aleatório parece funcionar melhor do que o sistemático. Há
que assinalar que é usado no processo análogo da evolução. Mas aí o método
sistemático não é possível. Como se poderia manter registo das diferentes
combinações genéticas que foram ensaiadas, de maneira a evitar que se as
ensaiasse novamente?
Podemos esperar que as máquinas eventualmente competirão com os humanos em
campos puramente intelectuais. Mas quais os melhores para começar? Mesmo esta
é uma decisão difícil. Muitas pessoas pensam que uma actividade muito abstracta,
como o jogar xadrez, seria o melhor. Pode-se também sustentar que é melhor dar à
máquina os melhores órgãos sensoriais que o dinheiro pode comprar, e depois
ensiná-la a compreender e falar inglês. Este processo poderia seguir o ensino
normal de uma criança. Poder-se-ia apontar para as coisas e nomeá-las, etc. Mais
uma vez, não sei qual a resposta correcta, mas penso que se deveria tentar ambas
as abordagens.

! .+)!
Só podemos antever a uma curta distância, mas podemos aí ver muita coisa que é
preciso fazer.

Victoria University of Manchester

Notas
1
Esta perspectiva é possivelmente herética. São Tomás de Aquino (Summa
Theologica, citado por Bertrand Russell, p. 480) afirma que Deus não pode fazer
que um homem tenha alma. Mas isto não pode ser uma restrição real aos Seus
poderes e sim apenas um resultado do facto de as almas dos homens serem
imortais e logo indestrutíveis.
2
Os nomes de autor em itálico remetem para a Bibliografia.
3
Ou antes «programado em» pois a nossa máquina infantil será programada num
computador digital. Mas o sistema lógico não terá de ser aprendido.
4
Compare-se a afirmação de Lady Lovelace (p. 450), que não contém a palavra
«apenas».

Bibliografia

Samuel Butler, Erewhon, Londres, 1865. Capítulos 23, 24, 25, The Book of the Machines.
Alonzo Church, «An Unsolvable Problem of Elementary Number Theory», American Journal of
Mathematics, 58 (1936), 345-363.
K. Gödel, «Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme,
I», Monatshefte für Math. und Phys., (1931), 173-189.
D. R. Hartree, Calculating Instruments and Machines, Nova Iorque, 1949.
S. C. Kleene, «General Recursive Functions of Natural Numbers», American Journal of Mathematics,
57 (1935), 153-173 e 219-244.
G. Jefferson, «The Mind of Mechanical Man». Oração Lister para 1949. British Medical Journal, vol. i
(1949) 1105-1121.
Condessa de Lovelace, «Notas da tradutora de um artigo sobre a Máquina Analítica de Babbage»,
Scientific Memoirs (org. R. Taylor), vol. 3 (1842), 691-731.
Bertrand Russell, History of Western Philosophy, Londres, 1940.
A. M. Turing, «On Computable Numbers, with an Application to the Entscheidungsproblem», Proc.
London Math. Soc. (2), 42 (1937), 230-265.

! .+"!

Vous aimerez peut-être aussi