Vous êtes sur la page 1sur 70

La mente che indaga la mente

Mente e cervello

Il notevole sviluppo delle neuroscienze, negli ultimi due o tre decenni, con i paralleli progressi
realizzati nel campo della cosiddetta intelligenza artificiale, hanno alimentato la convinzione di
poter penetrare con relativa facilità nella cittadella della mente utilizzando gli stessi strumenti e
modalità di indagine che tanto successo hanno ottenuto nelle scienze fisiche.
Senonché, alle grandi aspettative dei ricercatori e alle rinnovate dichiarazioni programmatiche, non
hanno fatto seguito i risultati attesi. Una autentica comprensione della mente umana continua ad
apparire un traguardo piuttosto lontano. Se è vero, infatti, che numerose esperienze indicano una
stretta correlazione tra i nostri stati mentali e le attività rilevate in alcune zone cerebrali, è altrettanto
vero che tale correlazione non ci dice sostanzialmente nulla circa il rapporto causale esistente tra i
due domini di fenomeni. La correlazione non rende conto del come, da un insieme di processi che si
svolgono impersonalmente all'interno dei neuroni cerebrali seguendo leggi fisiche ben note, si
giunga a esperienze soggettive vissute in prima persona da un determinato individuo.
Non parliamo poi della riproduzione di una facoltà come la coscienza realizzata per mezzo di un
calcolatore elettronico opportunamente programmato: traguardo a cui mirano i fautori
dell'intelligenza artificiale fin dalla sua fondazione e considerato potenzialmente raggiungibile da
molti scienziati e filosofi attuali. Qui, non soltanto si è ben lontani dall'aver raggiunto un qualsiasi
risultato concreto, ma non c'è nessuno che sia in grado di indicare, neppure in linea di principio,
come un artefatto del genere dovrebbe essere strutturato per acquisire una simile capacità. E quando
parliamo di riproduzione della coscienza, non pretendiamo il raggiungimento delle vette
dell'autocoscienza, bensì qualcosa di molto più modesto, come ad esempio un barlume, sia pur
minimo, di sensitività cosciente - caldo, freddo, pressione, dolore, piacere - magari limitato anche a
una sola di tali sensazioni.
La strategia più frequente per giustificare questo stato di impasse è quella di ricordare l'enorme
complessità del cervello, con un numero di neuroni che va da 10 a 100 miliardi e le relative
interconnessioni assoniche e dendridiche, da poche centinaia a molte decine di migliaia per ogni
singolo neurone. Complessità al cui confronto le attuali realizzazioni hardware/software sono da
considerarsi di una semplicità quasi ridicola.
Il richiamo alla complessità non avviene tuttavia sulla base di uno schema progettuale, sia pur solo
abbozzato, dal quale emergano con sufficiente chiarezza i limiti quantitativi e/o qualitativi dei nostri
artefatti di fronte alla struttura e all'organizzazione del cervello. Anzi, ad essere precisi, non
abbiamo alcuna idea di come i processi cerebrali, che pure possiamo rilevare grossolanamente con i
nostri strumenti e in alcuni casi mettere i rapporto con certe capacità mentali, diano luogo a dette
capacità. Mentre sappiamo con sufficiente esattezza quale dev'essere l'organizzazione
software/hardware di un elaboratore elettronico per renderlo capace di eseguire calcoli o compiti
determinati, purché esattamente definibili in termini di procedure e operazioni elementari, ci
troviamo nel buio più completo per quanto riguarda un'ipotetica organizzazione in grado di dar
luogo a un fenomeno mentale come quello della coscienza.
Ma, a dispetto di questa totale oscurità, molti scienziati mantengono ferma la loro convinzione che i
computer rappresentino un buon modello della mente umana e che quindi lo sviluppo di facoltà
coscienti sia solo una questione di organizzazione funzionale. In tale loro certezza, tuttavia, essi non
possono ignorare certe problematiche che la loro prospettiva inevitabilmente solleva.

1
Dette problematiche riguardano principalmente alcune caratteristiche della coscienza, come la
soggettività dell'esperienza e la libertà implicita nel concetto di volontà cosciente, contrapposte
all'oggettività e all'impersonalità dei processi computazionali, che fanno riferimento ad algoritmi
determinati, e più in generale a leggi fisiche che vincolano i fenomeni a comportamenti ben precisi.
Le scappatoie più frequenti di fronte a tali difficoltà sono essenzialmente due, e possono essere
sintetizzate come segue:
1) tendenza a sminuire l'importanza dei fenomeni coscienti all'interno del processo di adattamento
dell'organismo all'ambiente, che arriva in certi casi a considerare la coscienza come un mero
epifenomeno, privo di qualsiasi ruolo nella determinazione e nel controllo del comportamento;
2) ricorso alla nozione di "emergenza", secondo la quale livelli molto elevati di complessità
strutturale e/o funzionale darebbero origine a caratteristiche e capacità del tutto nuove, non
prevedibili e non spiegabili sulla base delle leggi valide ai livelli inferiori.
Questi due aspetti sono spesso compresenti e agiscono in maniera sinergica così da ridurre le
distanze (in senso metodologico o, addirittura, ontologico) che separano la coscienza dagli ordinari
oggetti e fenomeni del mondo fisico. Tale scopo viene sostanzialmente raggiunto attraverso una
svalutazione sistematica dei fattori di diversità e il tentativo di render conto di eventuali residui non
eliminabili ricorrendo al concetto ad hoc di "proprietà emergente".
E' appena il caso di far rilevare che tali strategie si collocano agli antipodi del corretto procedere
scientifico. In particolare, l'utilizzo del concetto di "proprietà emergente", svincolato da qualsiasi
prospettiva di verifica empirica, introduce una componente di valenza metafisica, appartenente alla
classe di quegli elementi che la scienza ha sempre dichiarato di voler bandire dalle proprie
formulazioni. Il ricorso a tale concetto, avendo un carattere "difensivo" e non euristico, tende a
trasformare la complessità, alla quale esso risulta strettamente legato, da "giustificazione" per il
mancato raggiungimento di certi risultati a fattore esplicativo, capace di render conto di per sé del
sorgere di determinate attitudini mentali.
Un rappresentante "tipico" in tal senso è il filosofo Daniel Dennet, fisicalista convinto, uno dei più
accaniti sostenitori dell'analogia funzionale tra mente e computer. Egli trova abbastanza
comprensibile che la gente comune abbia difficoltà ad accettare l'idea che il cervello funzioni come
un elaboratore elettronico e che le diverse facoltà mentali siano interamente riconducibili a tale
funzionamento. Se, infatti, proviamo ad immaginare un qualsiasi programma che giri su un
computer, giungiamo con relativa facilità alla conclusione che esso non potrà che limitarsi ad
eseguire meccanicamente un certo numero di operazioni sulla base delle istruzioni che lo
costituiscono, senza che ciò implichi la minima traccia di coscienza. Questo però accade, secondo
Dennet, perché siamo portati a pensare a programmi eccessivamente semplici. Affinché l'analogia
tra mente e computer acquisti un senso, dobbiamo pensare a qualcosa di veramente complesso,
tanto complesso da essere immaginato solo con grande difficoltà.
Non esiste altra strada da percorrere: se la mente è prodotta unicamente dall'attività del cervello (e
non può essere altrimenti) e i nostri attuali artefatti non danno prova di alcun fenomeno cosciente,
allora l'unica spiegazione possibile è che essa sorga a livelli di complessità molto superiori, magari
talmente elevati da collocarsi al limite delle nostre capacità immaginative.
Chi si aspetta di trovare, nelle argomentazioni di Dennet, ulteriori elementi a sostegno delle sue tesi,
non può che rimanere deluso. Non c'è nulla, all'infuori di una fede incondizionata nella validità del
modello proposto. Posizione che ha come corrispettivo un prezzo altissimo pagato in termini di
componenti metafisiche che egli è costretto a tollerare all'interno del proprio sistema.
Le posizioni "estremiste" come quella di Dennet contano un numero di sostenitori via via
decrescente all'interno della comunità scientifica. Emblematico, in tal senso, il caso di un autore
come Hilary Putnam, il quale, partito da una sostanziale accettazione del computazionismo come
adeguata teoria della mente, ne ha successivamente preso le distanze.
Di fronte a una crescente insoddisfazione per tale modello, si avverte tuttavia la mancanza di una
valida alternativa, capace di inserirsi coerentemente all'interno dell'attuale paradigma scientifico. E'
questo probabilmente il principale motivo per cui, mentre le indagini sperimentali in campo

2
neurofisiologico continuano ad accumulare dati sul rapporto mente-cervello, gli scienziati teorici
sembrano girare in tondo, attardandosi in marginali ritocchi a concezioni largamente
insoddisfacenti, introducendo concetti o distinzioni ad hoc, alimentando un ampio dibattito che
rischia però di rimanere sterile.
A parte casi isolati, come quello del fisico Roger Penrose, la maggioranza degli scienziati non
appare neppure sfiorata dal dubbio che le difficoltà incontrate, invece che essere dovute alla
straordinaria complessità del cervello umano in rapporto alle ancor limitate conoscenze e risorse
strumentali disponibili, possano derivare dall'aver adottato un quadro di riferimento inadeguato.
E' forse prematuro pretendere un drastico mutamento di rotta, un affrancamento più o meno
pronunciato dal modello scientifico basato sulla riconduzione dei fenomeni a leggi generali. Ma la
strada da percorrere sembra essere proprio questa. Come conciliare altrimenti il determinismo e la
prevedibilità, che le suddette leggi inevitabilmete implicano, con la libertà e la creatività dell'agire
umano?

Fino a pochi decenni fa, la sfera dei contenuti e degli stati coscienti non era reputata un oggetto
adeguato di indagine scientifica. Essa appariva troppo sfuggente, troppo imparentata con concetti
metafisici per poter essere ricondotta al modello naturalistico delle leggi universali e al rigore dei
metodi e delle procedure di controllo in uso nella scienza.

A partire dagli anni '80, tuttavia, il vertiginoso progresso delle neuroscienze ha portato conferme
sperimentali sempre più numerose sul legame esistente tra fenomeni cerebrali e processi mentali.
Nello stesso tempo, le realizzazioni sempre più spinte nel campo dell'intelligenza artificiale hanno
alimentato la speranza di poter riuscire a riprodurre almeno in parte tali facoltà per mezzo di
macchine computazionali controllate da sofisticati programmi informatici.

Acquisita in tal modo una solida base fisiologica di riferimento, l'indagine sulla mente e sulla
coscienza ha cessato di essere considerata un argomento di pura speculazione filosofica, per entrare
a pieno titolo nel campo della ricerca scientifica.

Malgrado i progressi finora ottenuti, una autentica comprensione dei fenomeni mentali appare
ancor oggi un traguardo piuttosto lontano. Poiché se è vero che numerose esperienze indicano una
stretta correlazione tra i nostri stati mentali e le attività rilevate in specifiche aree cerebrali, è
altrettanto vero che tale correlazione non ci dice molto circa il rapporto causale esistente tra i due
domini di fenomeni. La correlazione non spiega come da un insieme di eventi che si svolgono
impersonalmente all'interno dei neuroni cerebrali, si giunga a esperienze soggettive vissute in prima
persona da un determinato individuo.

Gli autori - scienziati e filosofi - che attualmente si interessano al problema della coscienza e degli
stati mentali sono moltissimi, ed estremamente variegata è la gamma delle loro posizioni. Ci
limitiamo ad indicarne alcune tra le più significative nell'ambito dell'attuale dibattito.

GERALD EDELMAN
Principale rappresentante del cosiddetto darwinismo neurale, concezione secondo la quale il
cervello si svilupperebbe in seguito all'interazione dell'organismo con l'ambiente, attraverso un
meccanismo che ricorda molto da vicino la selezione darwiniana.

DANIEL DENNET
Accanito sostenitore dell'analogia funzionale tra cervello e computer, tende a sminuire l'importanza
dei contenuti soggettivi, ponendo invece l'accento sugli effettivi processi che si svolgono nel
cervello.

3
MARVIN MINSKY
Considerato uno dei padri dell'intelligenza artificiale, propone un modello di mente costituito da
un gran numero di "agenti" specializzati che cooperano tra loro.

ANTONIO DAMASIO
Neuroscienziato portoghese che critica la razionalità attribuita alle nostre scelte. Partendo
dall'osservazione di casi clinici, egli propone un modello secondo il quale le emozioni e i
sentimenti costituiscono una sorta di percorso abbreviato in molti dei processi decisionali
dell'uomo.

THOMAS NAGEL
Filosofo conosciuto soprattutto per il suo saggio "Che cosa si prova ad essere un pipistrello?", nel
quale egli critica le pretese riduzionistiche di ricondurre gli stati mentali ai processi oggettivamente
rilevabili all'interno del cervello.

JOHN ECCLES
Rappresentante moderno del dualismo mente-corpo, rivisitato alla luce della meccanica
quantistica.

ROGER PENROSE
Partendo dall'osservazione che alcune operazioni compiute dalla mente umana non sono
riconducibili alla computazione, nega ogni possibilità di riprodurre le capacità mentali tramite un
elaboratore elettronico. Egli ipotizza la possibilità di spiegare i fenomeni coscienti all'interno di una
teoria che unifichi la relatività con la meccanica quantistica.

JOHN SEARLE
Critica decisamente il modello computazionale della mente umana, mettendo in rilievo la
differenza sostanziale esistente tra l'esecuzione meccanica di operazioni sulla base di un programma
(computer) e la comprensione autentica di ciò che si sta facendo (mente umana).

RICHARD RORTY
Filosofo proveniente dall'area analitica, critica la nozione di irriducibilità della coscienza,
sostenendo che lo stesso concetto di "mente" è destinato a scomparire col progredire della
conoscenza dei concreti processi cerebrali.

HILARY PUTNAM
Da una iniziale adesione al funzionalismo, ne ha preso successivamente le distanze, arrivando a
riconoscere una dimensione autonoma agli stati mentali.

PAUL CHURCHLAND
Uno dei principali sostenitori del cosiddetto "materialismo eliminativo", secondo cui i contenuti e
gli stati mentali sono completamente riducibili alla sfera dei fenomeni fisici. Churchland rifiuta il
modello computazionale della mente, caratterizzato da un funzionamento seriale, proponendo
invece un paradigma basato sul connessionismo (vedi reti neurali), che rappresenta più
adeguatamente il modo di operare del cervello (esecuzione di più compiti in parallelo).

JERRY FODOR
Si oppone all'analogia tra mente e computer, proponendo un modello modulare della mente,
secondo il quale la mente sarebbe formata da moduli che agiscono in modo sostanzialmente
autonomo, senza essere influenzati dallo stato generale del sistema.

4
Tutto ciò che riguarda il cervello, il comportamento, le caratteristiche della mente è oggi al centro di
crescente attenzione sia da parte degli scienziati sia da parte dei non specialisti che per diversi
motivi possiedono alcune nozioni su differenti aspetti dei rapporti tra cervello e comportamento. Ad
esempio, spesso sentiamo affermare che l'essere depressi o di buon umore può dipendere dalle
dinamiche delle molecole chimiche prodotte dalle cellule nervose, che le droghe modificano il
nostro comportamento agendo sui trasmettitori nervosi, che un trauma cranico può comportare un
vuoto di memoria, che intelligenza e memoria possono sgretolarsi in tarda età se il cervello va
incontro a malattie degenerative come il morbo di Alzheimer. Ognuno di noi, insomma, ha
conoscenze, più o meno sommarie, sia nel campo delle neuroscienze, le discipline che studiano il
cervello attraverso diversi strumenti e punti di vista, sia in quello della psicobiologia, la disciplina
che cerca di interpretare alcuni aspetti della mente attraverso un'ottica biologica, sia, infine, in
quello della filosofia della mente che, attraverso i secoli, ha cercato di rispondere a diversi
interrogativi che riguardano i rapporti tra la mente, un tempo associata all'anima, e il cervello.
Alcuni di questi classici interrogativi, oltre al rapporto mente-cervello, riguardano gli atteggiamenti
umani, le credenze e i desideri, la coscienza, la razionalità, le passioni, il rapporto tra natura e
cultura, la volontà, lo stesso libero arbitrio. Un tempo, però, i filosofi della mente si ponevano
domande che prescindevano dalle - poche - conoscenze sul funzionamento del cervello mentre oggi
è ben difficile non tenere in considerazione quanto ci rivela la biologia: e anche se alcuni filosofi
ritengono che gli eventi mentali siano essenzialmente dei vissuti in prima persona, su cui la scienza
ha ben poco da dire, è ben difficile ignorare alcuni fondamenti biologici del mentale. Ad esempio,
non abbiamo dubbi sul fatto che la mente di una persona che ha fatto uso di droghe pesanti sia
alterata, che la morte cerebrale coincida con l'assenza di coscienza e delle funzioni mentali, che
alcune funzioni mentali si verifichino a livello inconscio. Anche quando ci interroghiamo sul futuro,
la dimensione biologica ha un impatto sull'etica, sulla filosofia della mente, sullo stesso concetto di
"persona umana": spesso, tanto per ricorrere a un argomento attuale, ci domandiamo cosa
avverrebbe se gli individui umani fossero clonati e, in particolare, se le loro menti potrebbero essere
quasi identiche tra loro, simili in modo inquietante...
Questa trasformazione del nostro modo di guardare alla mente umana attraverso un'ottica biologica,
è abbastanza recente: sia pure con qualche approssimazione, potremmo affermare che poco più di
cinquant'anni fa la mente e il comportamento umano erano ancora appannaggio della filosofia e
della psicologia mentre si riteneva che biologia e medicina si limitassero a fornire risposte
circoscritte alla patologia, ai casi di malattie e lesioni del sistema nervoso. In realtà, l'interesse ai
rapporti tra cervello e comportamento risale a molti anni or sono: ad esempio, gli studiosi di
anatomia comparata, i naturalisti, gli evoluzionisti, si erano posti domande sulle radici biologiche
del comportamento umano già alcuni secoli addietro; Charles Darwin aveva sostenuto, sin dalla
metà dell'Ottocento, che il cervello umano avesse alle sue spalle una lunga storia naturale; i
neurologi avevano indicato come le lesioni di alcune parti della corteccia cerebrale alterassero
profondamente il linguaggio, la memoria, il comportamento. Tuttavia, malgrado queste conoscenze
e teorie, il cervello restava un continente inesplorato e ignoto ai più: e soprattutto, come si è detto,
era opinione comune che la scienza, in particolare la medicina, potesse chiarire alcuni aspetti della
patologia cerebrale ma non della fisiologia. Si ammetteva, ad esempio, che il comportamento
potesse disgregarsi a causa di un ictus o della sifilide ma non si riteneva che la scienza potesse
esplorare le caratteristiche della memoria, dell'emozione, del sogno e più in generale della mente.
Oggi, invece, la situazione è profondamente cambiata, il modo in cui guardiamo alla mente è
diverso in quanto le neuroscienze, attraverso lo sviluppo di varie tecniche e strategie, hanno
consentito di inquadrare e conoscere numerosi aspetti dei rapporti tra sistema nervoso e
comportamento, sia dal punto di vista fisiologico che patologico. Ovviamente, le trasformazioni del
modo in cui guardiamo ai rapporti tra mente e cervello, tra psiche e corpo, non rispecchiano soltanto
conoscenze scientifiche ma anche mutamenti sociali e culturali: in effetti, la maggiore attenzione
nei riguardi dei rapporti tra cervello e psiche può anche essere interpretata sulla base dell'attuale

5
tendenza verso l'individualismo, della crescente attenzione verso il sé, di una trasformazione della
mentalità che riguarda anche quegli interrogativi sul come siamo fatti e sul come agiamo che
rientrano nel campo di studio delle scienze della psiche e del cervello.
Un'ulteriore spinta verso una lettura in chiave biologica della mente ha avuto origine da una
laicizzazione della cultura e quindi dal superamento di una concezione spiritualistica che, nel
passato, poteva far sì che il concetto di mente coincidesse con quello di anima o di spirito: lo studio
del comportamento in termini naturalistici o "riduzionistici" implica invece che i fenomeni mentali
siano manifestazioni del corpo o dei processi cerebrali e che quindi lo studio della mente umana non
sia appannaggio della metafisica, della filosofia o di una psicologia completamente scissa dalla
biologia. Ciò non significa che la mente umana possa essere svelata esclusivamente attraverso
un'ottica naturalistica ma che le neuroscienze rappresentino un importante livello di lettura, anche
se non esclusivo. Questa laicizzazione della cultura è meno evidente in Italia e ciò spiega,
probabilmente, perché in altri paesi la filosofia della mente occupi un posto centrale nella filosofia e
le neuroscienze suscitino maggiore attenzione di quanto non avviene nel nostro paese.
Per renderci conto di come si sia giunti a una nuova concezione dei rapporti tra mente e cervello si
possono seguire quattro diversi percorsi:
1. In primo luogo ripercorrere la storia dei rapporti tra biologia e comportamento a partire
dall'Ottocento, quando i naturalisti, i fisiologi e i neurologi cominciarono a condurre studi e ricerche
sistematiche sulla storia naturale del cervello, sulla sua fisiologia e sugli effetti dei danni localizzati
in alcune regioni cerebrali.
2. In secondo luogo seguire un'ottica di tipo evolutivo, cercare cioè di seguire le tracce di una
"storia naturale" della mente per soffermarsi sulle tappe fondamentali che hanno portato a un
cervello tipicamente umano.
3. Un terzo percorso può invece riguardare alcuni fondamentali raggiungimenti delle neuroscienze e
della psicologia che hanno innovato il modo in cui guardiamo ai rapporti tra cervello e
rappresentazioni della realtà, basati sia su quel complesso intreccio di meccanismi predeterminati e
processi plastici che caratterizzano ogni funzione mentale, in particolare la memoria che costituisce
una specie di luogo simbolico della mente. Gli studi sulla memoria indicano, ad esempio, che alcuni
aspetti e modi del ricordare sono legati a specifiche aree della corteccia, che la mente rielabora in
modo massiccio sia nuove esperienze che ricordi consolidati, che non tutte le esperienze si
verificano a livello cosciente e, infine, che attività cognitive ed emotive sono fortemente
interdipendenti.
4. Ultima tappa del nostro percorso saranno le teorie della mente, un classico capitolo della filosofia
che riguarda i rapporti tra mente e cervello. In che modo le nuove conoscenze neuroscientifiche
hanno modificato le teorie della mente? Ad esempio, a quali trasformazioni è andata incontro
l'epistemologia il cui nucleo centrale è l'origine e la legittimazione della conoscenza? Tutta la
conoscenza, come sostenevano gli empiristi, nasce dai sensi e dalle impressioni che sono alla base
del contenuto dei nostri stati mentali di cui abbiamo conoscenza diretta oppure si basa su basi
naturalistiche, su idee innate, come ritenevano i razionalisti? Mente e cervello sono due entità
distinte? Esiste un linguaggio della mente? Le neuroscienze permettono di rispondere a queste
domande in modo più esaustivo oppure le risposte risiedono altrove, ad esempio nelle conoscenze
che derivano dall'intelligenza artificiale e da quelle di calcolo o "computazionali"? O infine, come
sostengono la filosofia e la psicologia fenomenologica, le neuroscienze non ci consentono di dare
risposta alcuna in quanto le esperienze mentali sono un fenomeno precluso alla conoscenza
obiettiva?
Considerata da questi diversi punti di vista, la mente ci apparirà sotto un insolito aspetto in quanto è
evidente che il cervello opera attraverso una serie di meccanismi precostituiti, frutto della sua lunga
storia, che fanno sì che stimoli ed esperienze vangano elaborati automaticamente e trasformati in
interpretazioni, rielaborate e corrette, della realtà. Che si tratti di stimoli visivi, di esperienze o
memorie che riaffiorano alla mente, tutto viene analizzato e rimaneggiato dal cervello prima ancora
che la mente possa rendersi conto di quanto il cervello sta facendo. In altre parole, molto spesso il

6
cervello sa e agisce prima della mente, prima che il nostro io ne sia a conoscenza. D'altronde
numerose attività, dai riflessi alle associazioni, dalla percezione alla memoria, si verificano a livello
inconscio.
La mente è seconda al cervello nell'interagire col mondo? Prende atto delle operazioni del sistema
nervoso attuate tramite programmi che derivano da una lunga storia evolutiva? Questa posizione, se
estremizzata, è eccessiva: è mai possibile che una visione unitaria della realtà, del mondo che ci
circonda e del nostro mondo interno, dipenda essenzialmente da un automatismo che deriva da un
meccanismo precostituito? Secondo alcuni filosofi e neuroscienziati, ad esempio Michael
Gazzaniga (1998), l'unitarietà della mente dipende dall'intervento di un "interprete" ma questi non
sarebbe altro che un ulteriore meccanismo precostituito di cui, col tempo, saremo in grado di
conoscere la "formula". E per di più questo meccanismo, l'interprete appunto, sarebbe a sua volta
frutto di un processo evolutivo che ci permette di individuare la presenza di simili interpreti, anche
se meno abili e sofisticati, nelle altre specie animali.
E se l'interprete fosse invece il prodotto dell'esperienza che, progressivamente, induce la formazione
di schemi sempre più complessi, visioni del mondo che pur hanno una loro dimensione
neurobiologica in quanto implementate nei circuiti nervosi?

In ogni momento della nostra vita, ad ogni passo, in tutti gli ambienti o contesti, quando parliamo,
mangiamo, insomma sempre i nostri sistemi sensoriali acquisiscono dall’esterno una mole enorme e
in un certo modo a flusso continuo di dati, o meglio di elementi fisici ben precisi. Che si tratti di
onde sonore, molecole che possiedono proprietà in grado di stimolare i recettori olfattivi o le papille
gustative, pressioni sulla superficie del corpo, fotoni che colpiscono coni e bastoncelli sulla retina
essi rimangono pur sempre stimoli fisici.
Come è possibile che diventino “cose” o addirittura eventi e emozioni?

La neuropsicologia cognitiva studia le prestazioni cognitive negli individui che hanno subito una
lesione cerebrale, cercando di capire quali aspetti dell’attività cognitiva sono intatti o danneggiati e
cercando di trarre conclusioni sui processi cognitivi normali.
Tali informazioni possono essere utili in quanto i risultati ottenuti da soggetti con deficit cerebrali
nei compiti cognitivi possono essere spiegati da teorie che appartengono alla psicologia cognitiva.
Diventa così possibile utilizzare le informazioni tratte dal comportamento dei pazienti con lesioni
cerebrali per confutare le teorie proposte dagli psicologi cognitivi e proporre nuove teorie del
funzionamento cognitivo normale.

Il COGNITIVISMO è una forma di sapere a carattere multidisciplinare, che ha come oggetto lo


studio dei sistemi intelligenti, tra cui naturalmente la mente umana. Mentre le teorie
comportamentiste pongono l'accento sulla funzione stimolo-risposta per spiegare la formazione
delle conoscenze, il cognitivismo punta la sua attenzione sull'analisi dei processi conoscitivi e
sullo studio delle possibili forme di rappresentazione delle conoscenze. che la nostra mente è
capace di operare. Filosofia, psicologia, linguistica, neuroscienze e scienza dell'informazione
costituiscono i domini del cognitivismo. Esso assume i caratteri di un sapere assolutamente
trasversale, la cui evoluzione è stata senza dubbio accelerata dallo studio dell'intelligenza artificiale
accanto all'espansione delle applicazioni informatiche.

Il funzionamento del nostro cervello ha ben poco in comune con quello del calcolatore elettronico o
altre macchine di nostra costruzione. Lì dove il calcolatore manipola un gran numero di simboli dati
secondo regole date, il nostro cervello traccia associazioni d'idee, inventa analogie e metafore,
costruisce significati attraverso l'interazione sociale. La differenza è grande, e si manifesta più
chiaramente proprio lì dove maggiore è la richiesta d'aiuto che l'uomo rivolge alle tecnologie
informatiche. I sistemi di supporto alle decisioni e i modelli di simulazione aziendale sono chiamati

7
ad essere d'aiuto nelle situazioni più difficili, quelle in cui un manager si trova di fronte a una
situazione nuova e imprevedibile.
Poco si conosce sul funzionamento delle capacità più sofisticate dell'intelletto umano, come la
coscienza, le emozioni, la razionalità. Qualcosa si sa, invece, sui principi di funzionamento dei
processi cognitivi attraverso i quali ci formiamo un'immagine della realtà che ci circonda. Sappiamo
cos'è una categoria mentale, sappiamo come funziona una mappa cognitiva, e sappiamo come
queste si possono formare a partire dalle interazioni tra i circa 1013 neuroni che compongono il
nostro cervello.
Per costruire modelli ad agenti sofisticati, è importante avere una conoscenza di base circa il
funzionamento dei nostri processi cognitivi.

Qualsiasi organo di dimensioni finite, ha delle capacità finite. Così, ad esempio, la capacità di un
polmone di ossigenare il sangue dipende dal suo volume, per cui la necessità di maggiore
ossigenazione che si osserva durante la corsa trova un limite nella dimensione dei polmoni. Il
cervello umano è dotato di un'estesa corteccia cerebrale, sede delle sue funzioni più sofisticate. Le
dimensioni della corteccia sono aumentate esponenzialmente lungo l'evoluzione che ha portato dai
primi ominidi alla specie homo sapiens, ma rimangono comunque finite. Le nostra capacità di
intuizione e di deduzione, comunque misurate, non sono infinite ma sono limitate dalle potenzialità
dell'hardware che le sostiene. Questo concetto va sotto il nome di razionalità limitata .
Una prima conseguenza della limitatezza della razionalità umana è che gli oggetti percepiti nel
mondo empirico non vengono rappresentati così come sono, ma piuttosto classificati in categorie.
Così, ad esempio, la parola "sedia" non rimanda a tutte le sedie che abbiamo visto nella nostra vita,
ma alla categoria degli oggetti che hanno quattro gambe e uno schienale, e sui quali ci si può sedere.
Ciò costituisce, evidentemente, una semplificazione del numero dei concetti che devono essere
manipolati.

Tuttavia, l'esempio di cui sopra è fuorviante per quanto riguarda un aspetto estremamente
importante. Volutamente, la categoria "sedia" è stata definita mediante dei criteri: avere quattro
gambe, avere uno schienale, dare la possibilità di sedercisi sopra. E' il modo in cui procede la
deduzione logica: si comincia col definire degli elementi, e poi eventualmente li si combina. E' il
modo in cui funzionano i programmi di qualsiasi calcolatore: si definisce un insieme di simboli (che
possono rappresentare costanti o variabili) e li si fa interagire secondo certe regole. Ma questo non è
il modo in cui funziona il cervello umano.
Armati della definizione di "sedia" come di un oggetto che ha quattro gambe e uno schienale, e sul
quale ci si siede, si supponga di osservare una sedia da ufficio che poggia su una sola gamba,
centrale. Evidentemente, il criterio di definizione della categoria "sedia" dev'essere modificato. In
altre occasioni, potrà essere preferibile introdurre un'ulteriore categoria. Ad esempio, l'osservazione
di oggetti sui quali ci si può sedere, dotati non solo di gambe e schienale ma anche di braccioli
potrebbe suggerire l'idea di inventare una nuova categoria: "poltrone". Ma in base a quale criterio
dovrebbe la nostra mente modificare i criteri in base ai quali le categorie classificano gli oggetti? E
non dovrebbe esistere anche un criterio che possa modificare questo criterio, e così via seguendo
una regressione infinita? Il problema è che il ragionamento deduttivo, quello - per intenderci - che si
trova nella dimostrazione di un teorema o in un programma per calcolatore, non è in grado di
misurarsi con le novità. Che siano "braccioli" come nel semplicissimo esempio precedente, o le
mutevoli configurazioni del mercato, la mente umana deve essere in grado di classificare novità
imprevedibili secondo categorie che non appiattiscano gli elementi innovativi. Non c'è spazio per
criteri fissati ex ante.

Le categorie mentali si formano per accrescimento, attraverso l'osservazione di innumerevoli


esempi. Così un bambino che osservi per la prima volta una piccola sedia nella sua cameretta potrà
creare una categoria "sedia" alla quale, all'inizio, afferisce un solo esempio nella sua esperienza

8
sensibile. Successivamente, l'osservazione di oggetti simili presenti all'interno della casa potrà
arricchire la categoria "sedia" di altri esemplari. Si noti che per costruire questa categoria non è
stato necessario definire a priori cos'è una sedia: è stato sufficiente essere stati in grado di tracciare
delle similitudini, delle analogie tra le sedie precedentemente osservate e ogni nuovo esemplare.
Può darsi che a posteriori sia possibile trovare qualche elemento comune a tutti gli oggetti
classificati in una categoria, e che questi elementi comuni possano essere utilizzati come
definizione. Succede, ad esempio, con la categoria "sedia". Ma non è sempre così.
Può darsi che una categoria si sia costruita intorno a un prototipo, un nucleo centrale che viene
declinato in innumerevoli variazioni. Ad esempio, un oggetto sul quale ci si possa sedere, dotato di
quattro gambe e uno schienale, è il prototipo intorno al quale ruotano le sedie ad una o a tre gambe,
con schienale o con poggiatesta. Ma non sempre esiste un prototipo.

Si consideri, ad esempio, la categoria mentale identificata dalla parola "gioco". Esiste qualche
elemento comune tra i giochi dei bambini, i giochi delle carte che fanno gli adulti, i cuccioli di gatto
che giocano ad acchiappare il topo? In Inglese, Francese e Tedesco la situazione è ancora più
problematica, perché anche gli strumenti musicali si "giocano" (to play, jouer, spielen). In Inglese
poi, "game" significa anche "branco". Vuol dire che lanciare un giavellotto è come suonare la
chitarra? Evidentemente, no. Vuol dire che esiste una catena di similitudini che lega ognuno di
questi concetti ad almeno uno degli altri. Ad esempio, andare a caccia potrebbe somigliare ai giochi
che osserviamo nei cuccioli di molti animali, oppure suonare uno strumento musicale potrebbe
somigliare a giochi che si fanno per puro diletto, da soli o in gruppo. Ma non è necessario che ogni
varietà di "gioco" sia simile a tutte le altre. Non esiste nemmeno un gioco che faccia da prototipo a
tutti gli altri. E non esistendo nessuna caratteristica che sia comune a tutti i giochi, non è possibile
dare una definizione di "gioco" che vada bene per tutti gli esemplari della categoria. Non esiste
nessuna possibilità di definire questa categoria mediante un criterio di classificazione a priori.
Ancora, un'ulteriore particolarità delle categorie mentali è che molto spesso i confini tra categorie
non sono netti. Piuttosto, una categoria sfuma in un'altra senza soluzione di continuità. Ad esempio,
le categorie che corrispondono alle razze dei cani sfumano l'una nell'altra in un'infinita serie di
possibili bastardi.

Un calcolatore manipola simboli nella forma di variabili continue o discrete alle quali è stato dato
un significato dall'autore del programma. Il significato delle variabili è stato scelto una volta per
tutte, il calcolatore si assume il compito di applicare alcune regole di combinazione (ad esempio,
quelle dell'algebra booleana) che producono un risultato il cui significato discende da quello delle
variabili di partenza.
Di nuovo, nulla di più diverso da quello che fa la mente umana. La nostra mente costruisce e
modifica le categorie nello stesso tempo in cui crea i loro significati. Le categorie mentali non sono
mai dei simboli, degli elementi dal significato invariabile.

Proviamo, ad esempio, ad immaginare come mai alle sedie dotate di braccioli venga riservata una
categoria a sé, quella delle "poltrone". Andate col pensiero ad una delle innumerevoli volte in cui vi
è capitato di entrare in uffici di una certa importanza. Chi aveva a disposizione una poltrona? Di
solito, la poltrona serve a distinguere chi è più in alto in una gerarchia. Ha, cioè, un significato
diverso dalla più misera "sedia". A significato diverso, corrisponde una categoria diversa.
In definitiva, il motivo che ci ha spinto a differenziare tra "sedie" e "poltrone" è che queste
categorie mentali sono immerse in una rete di relazioni con altre categorie e con il mondo esterno,
le quali relazioni danno origine al significato che le categorie mentali hanno l'una rispetto all'altra.
Più precisamente, non è possibile pensare alla genesi delle categorie mentali indipendentemente dai
loro rapporti reciproci e dalla genesi del loro significato.

9
In definitiva, possiamo caratterizzare una mappa cognitiva come un insieme di relazioni causali tra
categorie mentali, la cui struttura evolve insieme alle categorie stesse.

"Tutto ciò che è detto è detto da un osservatore ad un altro osservatore che può essere l'osservatore
stesso" H. Maturana e Francisco Varela
La nostra individualità non si basa sul puro e semplice accumulo di esperienze, ma anche e
soprattutto sul modo in cui queste vengono collegate tra loro: l'io è più il prodotto della storia che ci
raccontiamo, attraverso cui attribuiamo significati e manteniamo una coerenza col succedersi dei
fatti della nostra vita, alla messa in atto dei comportamenti, a desideri, decisioni, che ci rendono
quotidianamente il senso di noi stessi, la consapevolezza del nostro vivere, del cambiare pur
rimanendo noi stessi.
L’identità ci appartiene e noi apparteniamo ad essa, la difficotà al cambiamento, di qualunque tipo e
natura è dato da questo livello di implicazione, noi ci muoviamo nell’ambiente attraverso le
relazioni partendo dalla nostra prima relazione significativa, la nostra “narrazione”, la storia ci
racconta e lo fa attraverso l’identità stessa, noi desideriamo, cerchiamo, necessitiamo le relazioni
che mantengono la nostra stessa identità, la difficoltà è uscire da questo dominio di riferimento pur
mantenendo un dominio esistenzialmente significativo, coerente e di cui abbiamo consapevolezza,
la complessità del mantenerci in questo stato di coscienza portando con noi la “logica” necessaria al
nostro esistere determina la complessità con cui siamo fatti.

Mille miliardi di cellule che si sviluppano, si specializzano e comunicano tra loro. Il cervello
umano, una delle strutture più complesse e misteriose dell'intero universo, è considerato da molti il
culmine dell'evoluzione biologica. Importanti funzioni che caratterizzano la nostra specie, come il
linguaggio, l'apprendimento e la logica, sono il frutto di meccanismi biologici che avvengono nelle
circonvoluzioni di quest'organo. Qui hanno sede le nostre capacità di ricevere, immagazzinare ed
elaborare le informazioni che ci arrivano dall'ambiente circostante e possono prendere corpo gravi
malattie che condizionano il modo con cui noi interagiamo con il mondo esterno.

Il cervello è il principale organo deputato alla ricezione degli stimoli provenienti dall'esterno ed
anche alla raccolta di tutto il complesso insieme di ciò che proviene dall'interno del corpo, dunque il
decodificatore è anche l'organo principale dell'attività psichica o mentale; esso è contenuto nel
corpo, e la mente viene intesa nel cervello.
Abitualmente ci identifichiamo con ciò che la memoria consente di portare a livello di coscienza.
Esistono molti tipi di memoria, quella genetica codificata nel DNA dei geni dei gameti che
unendosi avviano la riproduzione di un organismo; poi esiste una memoria immunitaria in cui
l'organismo si identifica come sé (tutto ciò che è istologicamente compatibile) dal non-sé (altro
patrimonio genico), ma quando ci si riferisce allo uomo lo si caratterizza per l'attività di pensiero e
delle sue espressioni nell'azione e nel linguaggio, si trovano corrispondenze tra l'attività cerebrale e
la attività mentale: memoria come base per pensiero, ragione e coscienza.

La nostra attuale concezione dell'uomo è che lo sviluppo filogenetico dalla prima cellula e quello
ontogenetico che comincia con l'unione dei gameti porti alla maturazione del corpo con il suo
cervello che è l'organo deputato a ricevere e coordinare ed esprimere sensazioni, impulsi ed
emozioni, ma anche l'attività della mente: quindi la memoria e il pensiero, e le altre facoltà
dell'intelletto come l'intuizione. La corrispondenza tra stati cerebrali (ad es. le aree cerebrali
deputate e specializzate nella ricezione degli stimoli o nell'esecuzione dell'attività motoria, o più
generalmente comportamentale, e della parola) e le funzioni psicologiche, è con l'attuale progresso
tecnologico (TAC, RM, PET, EEG, etc) dimostrato.

Secondo l'ottica orientale c'è invece una coscienza che si incarna, cioè va ad abitare un determinato
corpo, così come noi cambiamo appartamento o abitazione. Ecco allora che i vari stati o livelli

10
dell'animo continuano a mantenere la loro identità (ma possono anche trasformarsi) in vari stati
come nel sonno, nel sogno, nella vigilanza o nella autocoscienza-meditazione. È un approccio
distinto, anche perché il corpo abitato dalla "coscienza" o l'"anima" è un corpo fatto di chacra
(manipura - swdistana - - visuddha - ahina - sahasrara) e di colonne (susunna - ida e pingala, etc.) le
cui corrispondenze non sono anatomiche e fisiologiche, anche se le relazioni tra i chacra e lo stato
d'animo esistono, così come nel modello occidentale vi sono le corrispondenze tra le proiezioni del
corpo nelle mappe cerebrali (ad es. si sa che l'emisfero destro domina il controllo sensitivo e
motorio nell'emisoma sinistro e viceversa), e tra la funzionalità del cervello e delle ghiandole (vedi
la psico neuro endocrino immunologia) e lo stato d'animo.
Indifferentemente dal modo in cui uno si concepisce, certamente ognuno si identifica in un corpo
fisico soggetto a sensazioni, istinti ed emozioni (queste a cavallo fra il fisico e lo psichico) e in una
parte mentale (pensiero, immaginazione rievocativa o memoria di richiamo, immaginazione
creativa, eventualmente intuizione per chi - come la psicontesi - la ammette). Per tutti però è
evidente come ci sia la possibilità di interferire tra mente e cervello, e ciò attraverso la capacità di
intendere (coscienza vigile) e di volere. È l'atto volitivo che ha la possibilità di trasformare
interagendo durante la fasi di vigilanza. Gli stadi di sogno e di sonno sono stati in cui l'attività
mentale è maggiormente proiettata sul versante somatico, ma agiscono al di fuori della interferenza
diretta dell'atto volitivo, cioè dell'espressione dalla libertà scelta. L'attività volitiva ha la possibilità
di esprimersi ed agire durante la fase di vigilanza (non sempre la fase veglia e di vigilanza
coincidono), come ben specificato in "ogni idea contiene un impulso motore" o più estesamente
nella I legge di psicodinamica. "Le immagini o figure mentali, e le idee tendono a produrre le
condizioni fisiche e gli atti esterni ad esse corrispondenti".
L'interferenza tra gli stati mentali e il corpo (indifferentemente dalla concezione occidentale in cui il
corpo sviluppa il cervello come contenitore degli stati mentali, e quella orientale in cui la mente
sceglie un determinato corpo come sua abitazione per cui la mente è il contenitore e il corpo è
l'automa aggregato dalla mente) è possibile utilizzando molteplici tecniche. Dallo stato di vigilanza
può partire l'interferenza con gli altri statipsicofisiologici: sogno, sonno e autocoscienza (o stato
meditativo).
L'atto volitivo ha la possibilità di direzionare una tendenza che poi si impregnerà a livello di
substrato organico (divenendo "un automatismo inconscio" cioè un'abitudine): interferenza
psicosomatica molto simile alla interazione che gli orientali applicano per agire sul "corpo sottile".

11
Mente e coscienza

Dimentichiamo lo scetticismo, e assumiamo che il mondo fisico esiste, incluso il tuo corpo e il tuo
cervello; e mettiamo da parte il nostro scetticismo sulle altre menti. Assumerò che tu sia cosciente
se tu assumi che io lo sia. Ora, quale potrebbe essere la relazione tra coscienza e cervello?
Chiunque sa che ciò che accade nella coscienza dipende da ciò che accade al corpo. Se batti il dito
del piede ti fa male. Se chiudi gli occhi non puoi vedere cosa ti sta di fronte. Se addenti un pezzo di
Droste senti il gusto del cioccolato. Se qualcuno ti colpisce in testa svieni.
L'evidenza mostra che per ogni cosa che accade nella tua mente o coscienza, qualcosa deve
accadere nel tuo cervello. (Non sentiresti alcun dolore per il colpo sul dito se i nervi della gamba e
della spina dorsale non portassero gli impulsi dal dito al tuo cervello.) Non sappiamo cosa accade
nel cervello quando pensi "Mi chiedo se questo pomeriggio avrò il tempo di farmi tagliare i
capelli". Ma siamo abbastanza sicuri che succede qualcosa – qualcosa che implica mutamenti
chimici e elettrici nei bilioni di cellule nervose di cui è fatto il tuo cervello.
In certi casi sappiamo come il cervello influisce sulla mente e come la mente influisce sul cervello.
Sappiamo, per esempio, che la stimolazione di certe cellule cerebrali vicine alla parte posteriore
della testa produce esperienze visive. E sappiamo che quando decidi di prenderti un'altra fetta di
dolce certe altre cellule cerebrali mandano impulsi ai muscoli nel tuo braccio. Non conosciamo la
maggior parte dei dettagli, ma è chiaro che vi sono relazioni complesse tra quello che accade nella
tua mente e i processi fisici che si verificano nel tuo cervello. Fin qui tutto ha a che fare con la
scienza, non con la filosofia.
Ma vi è anche una questione filosofica sulla relazione tra mente e corpo, e è la seguente: la tua
mente è qualcosa di diverso dal tuo cervello, sebbene a esso connessa, oppure è il tuo cervello? I
tuoi pensieri e sentimenti, le tue percezioni e sensazioni, e i tuoi voleri sono cose che accadono in
aggiunta a tutti i processi fisici nel tuo cervello, o sono in se stessi parte di quei processi fisici?
Cosa accade, per esempio, quando addenti un pezzo di cioccolato? Il cioccolato si scioglie sulla tua
lingua e causa mutamenti chimici nelle tue papille gustative; le papille gustative inviano alcuni
impulsi elettrici lungo i nervi che vanno dalla tua lingua al tuo cervello, e quando quegli impulsi
raggiungono il cervello vi producono ulteriori mutamenti fisici; infine, tu senti il gusto del
cioccolato. Che cos'è questo? Potrebbe essere solo un evento fisico in alcune cellule del tuo
cervello, o deve trattarsi di qualcosa di completamente differente?
Se uno scienziato ti togliesse la calotta cranica e guardasse nel tuo cervello mentre stai mangiando il
pezzo di cioccolato, tutto quello che vedrebbe è una grigia massa di neuroni. Se usasse strumenti
per misurare cosa sta accadendo all'interno, scoprirebbe complicati processi fisici di tipo molto
differente. Ma troverebbe il gusto del cioccolato?
È come se non potesse trovarlo nel tuo cervello perché la tua esperienza del gusto del cioccolato è
chiusa nella tua mente in un modo che la rende inosservabile da parte di chiunque altro – anche se ti
apre la calotta cranica e ti guarda dentro il cervello. Le tue esperienze sono dentro la tua mente con
un tipo di internità che è differente dal modo in cui il tuo cervello è dentro la tua testa. Qualcun
altro può aprire la tua testa e vedere cosa c'è dentro, ma non può aprire la tua mente e guardarci
dentro – almeno, non nello stesso modo.
Non è soltanto che il gusto del cioccolato è un sapore e quindi non si può vedere. Supponiamo che
uno scienziato fosse abbastanza pazzo da cercare di osservare la tua esperienza del gusto del
cioccolato leccando il tuo cervello mentre mangi un pezzo di cioccolato. Prima di tutto, il tuo
cervello, probabilmente, non avrebbe per lui il gusto del cioccolato. Ma anche se ce l'avesse egli
non riuscirebbe a entrare nella tua mente e osservare la tua esperienza di gustare il cioccolato.
Scoprirebbe soltanto, e abbastanza ovviamente, che quando gusti del cioccolato il tuo cervello

12
cambia in modo da sapere di cioccolato per altre persone. Lui avrebbe il suo gusto di cioccolato e tu
il tuo.
Se quanto accade nella tua esperienza è dentro il tuo cervello in un modo in cui quel che accade nel
tuo cervello non lo è, è come se la tua esperienza e altri stati mentali non potessero essere soltanto
stati fisici del tuo cervello. Deve esservi di più in te che non il tuo corpo con il suo indaffarato
sistema nervoso.
Una possibile conclusione è che deve esservi un'anima, attaccata al tuo corpo in un certo modo, che
consente loro di interagire. Se è vero, allora sei fatto di due cose del tutto differenti: un organismo
fisico complesso e un'anima che è puramente mentale. (Questa visione è chiamata dualismo, per
ovvie ragioni.)
Ma molti pensano che quella nell'anima sia una credenza all'antica e priva di scientificità. Qualsiasi
altra cosa nel mondo è fatta di materia fisica – differenti combinazioni degli stessi elementi chimici.
Perché noi no? I nostri corpi si sviluppano attraverso un processo fisico complesso dalla singola
cellula prodotta dall'unione di sperma e ovulo al momento del concepimento. La materia ordinaria
si aggiunge gradualmente in modo che la cellula si trasforma in un bambino con braccia, gambe,
occhi, orecchie e un cervello, capace di muoversi, sentire e vedere, e alla fine di parlare e pensare.
Alcuni credono che questo sistema fisico complesso sia in se stesso sufficiente a dare origine a una
vita mentale. Perché non dovrebbe essere così? In ogni modo, come può un semplice argomento
filosofico mostrare che non è così? La filosofia non può dirci di cosa sono fatti stelle o diamanti, per
cui come può dirci di cosa sono o non sono fatte le persone?
La visione secondo cui le persone non sono fatte che di materia fisica, e i loro stati mentali sono
stati fisici del loro cervello è chiamata fisicalismo (o talvolta materialismo). I fisicalisti non hanno
una teoria specifica di quale processo nel cervello può essere identificato come l'esperienza del
gusto del cioccolato, per esempio. Ma credono che gli stati mentali siano solo stati del cervello, e
che non vi è alcuna ragione filosofica di pensare che non possano esserlo. I dettagli saranno scoperti
attraverso la scienza.
L'idea è che potremmo scoprire che le esperienze sono davvero processi cerebrali proprio come
abbiamo scoperto che altre cose familiari hanno una natura reale che non avremmo potuto
congetturare finché non è stata rivelata dalla ricerca scientifica. Per esempio, risulta che i diamanti
sono composti di carbonio, lo stesso materiale di cui è fatto il carbone: gli atomi sono solo
differentemente disposti. E l'acqua, come tutti sappiamo, è composta di idrogeno e ossigeno, anche
se quei due elementi non sono affatto acqua quando presi in se stessi.
Per cui, anche se potrebbe sembrare sorprendente che l'esperienza del gusto del cioccolato non
possa essere altro che un complicato evento fisico nel tuo cervello, non sarebbe affatto più strano
della quantità di cose che sono state scoperte sulla natura reale di oggetti e processi ordinari. Gli
scienziati hanno scoperto che cos'è la luce, come crescono le piante, come si muovono i muscoli – è
solo questione di tempo prima che scoprano la natura biologica della mente. Ecco quanto pensano i
fisicalisti.
Un dualista replicherebbe che quelle altre cose sono diverse. Quando scopriamo la composizione
chimica dell'acqua, per esempio, abbiamo a che fare con qualcosa che è chiaramente là fuori nel
mondo fisico – qualcosa che tutti possiamo vedere e toccare. Quando scopriamo che è fatta di atomi
di idrogeno e ossigeno scomponiamo soltanto una sostanza fisica esterna in parti fisiche più piccole.
È una caratteristica essenziale di questo tipo di analisi che non forniamo una scomposizione chimica
del modo in cui l'acqua ci sembra, di come la sentiamo, del gusto che ha per noi. Queste cose
avvengono nella nostra esperienza interna, non nell'acqua che abbiamo scomposto in atomi.
L'analisi fisica o chimica dell'acqua le lascia da parte.
Ma per scoprire che gustare del cioccolato era in effetti solo un processo cerebrale avremmo dovuto
analizzare qualcosa di mentale – non una sostanza fisica esternamente osservabile, ma una
sensazione gustativa interna – nei termini di parti che sono fisiche. E non c'è modo in cui un ampio
numero di eventi fisici nel cervello, per quanto complessi, possano essere le parti di cui è composta

13
una sensazione gustativa. Un tutto fisico può essere analizzato in parti fisiche più piccole, ma un
processo mentale no. Parti fisiche non possono proprio dare luogo a un tutto mentale.
Vi è un'altra possibile visione che è differente sia dal dualismo sia dal fisicalismo. Il dualismo è la
visione che tu sei fatto di un corpo più un'anima, e che la tua vita mentale avviene nella tua anima.
Il fisicalismo è la visione che la tua vita mentale è fatta di processi fisici nel tuo cervello. Ma
un'altra possibilità è che la tua vita mentale avvenga nel tuo cervello, e che tuttavia tutte quelle
esperienze, quei sentimenti, pensieri e desideri non siano processi fisici nel tuo cervello. Questo
vorrebbe dire che la materia grigia di bilioni di cellule nervose nella tua scatola cranica non è solo
un oggetto fisico. Ha una quantità di proprietà fisiche – si verifica in essa una grande quantità di
attività chimica e elettrica – ma vi avvengono anche processi mentali.
La visione che il cervello è la sede della coscienza, ma che i suoi stati coscienti non sono solo stati
fisici è chiamata teoria del doppio aspetto. La si chiama così perché essa implica che quando
addenti un pezzo di cioccolato questo produce nel tuo cervello uno stato o processo con due aspetti:
un aspetto fisico che coinvolge vari mutamenti chimici e elettrici, e un aspetto mentale –
l'esperienza del sapore del cioccolato. Quando si verifica questo processo uno scienziato che guardi
nel tuo cervello sarà in grado di osservare l'aspetto fisico, ma sarai tu stesso, dall'interno, a
sperimentare l'aspetto mentale: avrai la sensazione di gustare del cioccolato. Se fosse vero, il tuo
stesso cervello avrebbe un interno che non potrebbe essere percepito da un osservatore esterno
anche se lo apre in due. Ti darebbe una certa sensazione o gusto il fatto che quel processo si
verifichi nel tuo cervello.
Potremmo esprimere questa visione dicendo che tu non sei un corpo più un'anima – che sei solo un
corpo, ma il tuo corpo, o almeno il tuo cervello, non è solo un sistema fisico. È un oggetto con
aspetti fisici e mentali: può essere sezionato, ma ha anche il tipo di interiorità che non può essere
svelata tramite dissezione. C'è qualcosa come gustare cioccolato dall'interno perché c'è qualcosa
come avere dall'interno il tuo cervello nella condizione che è prodotta quando mangi un pezzo di
cioccolato.
I fisicalisti credono che nulla esiste se non il mondo fisico che può essere studiato dalla scienza: il
mondo della realtà oggettiva. Ma allora devono trovare posto in qualche modo per sentimenti,
desideri, pensieri e esperienze – per te e per me – in un mondo del genere.
Una teoria proposta in difesa del fisicalismo è che la natura mentale dei tuoi stati mentali consiste
nelle loro relazioni con cose che li causano e cose che essi causano. Per esempio, quando ti fai male
al dito e senti dolore, il dolore è qualcosa che si verifica nel tuo cervello. Ma la sua dolorosità non è
solo la somma delle sue caratteristiche fisiche, e non è neppure qualche misteriosa proprietà non
fisica. Piuttosto quello che ne fa un dolore è che si tratta del tipo di stato del tuo cervello di solito
provocato da una lesione, e che di solito ti fa urlare e zoppicare e evitare ciò che ha causato la
lesione. E questo potrebbe essere uno stato puramente fisico del tuo cervello.
Ma ciò non sembra sufficiente per fare di qualcosa un dolore. È vero che i dolori sono causati da
una lesione, e ti fanno urlare e zoppicare. Ma si sentono anche in un certo modo, e questo sembra
essere qualcosa di diverso da tutte le loro relazioni con cause e effetti, come da tutte le proprietà
fisiche che possono avere – se sono di fatto eventi nel tuo cervello. Per quanto mi riguarda, credo
che questo aspetto interno del dolore e di altre esperienze coscienti non possa essere adeguatamente
analizzato nei termini di qualche sistema di relazioni causali con stimoli fisici e comportamento, per
quanto complesso.
Sembrano esservi due tipi di cose del tutto differenti che avvengono nel mondo: le cose che
appartengono alla realtà fisica, che molte persone differenti possono osservare dall'esterno, e quelle
altre cose che appartengono alla realtà mentale, che ciascuno di noi sperimenta dall'interno nel suo
caso. Questo non vale solo per esseri umani: cani, gatti, cavalli e uccelli sembrano essere coscienti,
e anche pesci, formiche e scarabei probabilmente lo sono. Chi sa dove ci si ferma?
Non avremo una concezione generale adeguata del mondo finché non potremo spiegare come,
quando una quantità di elementi fisici sono messi insieme nel modo giusto, formano non solo un
organismo biologico funzionante, ma un essere cosciente. Se la coscienza stessa potesse essere

14
identificata con un certo tipo di stato fisico, si aprirebbe la strada per una teoria fisica unificata di
mente e corpo, e quindi, forse, per una teoria fisica unificata dell'universo. Ma le ragioni contro una
teoria puramente fisica della coscienza sono abbastanza forti da fare apparire probabile che una
teoria fisica di tutta la realtà è impossibile. La scienza fisica ha progredito lasciando la mente fuori
da quanto cerca di spiegare, ma può esservi di più nel mondo di quanto la scienza fisica possa
comprendere.

Lo studio della nostra coscienza e dei segreti riguardanti il funzionamento del nostro cervello
costituisce probabilmente, a causa della sua importanza fondamentale, l’ultima frontiera della
scienza e, insieme allo studio dei fenomeni caotici e complessi rappresenta il settore più vitale e
ricco di prospettive della scienza odierna.
I filosofi hanno per secoli considerato la mente umana e tutte le sue più importanti caratteristiche
(per esempio l’intelligenza e l’autocoscienza) come un loro campo d’indagine esclusivo ed hanno
elaborato varie teorie su questo tema affascinante, che vanno dal più rigido materialismo e
meccanicismo all’esaltazione dello spirito e della sua libertà nei confronti della materia. La scienza
sembra ora voler togliere alla filosofia persino quest’ultimo terreno di caccia, anche se comprendere
la coscienza e più in generale i vari meccanismi mentali è forse l’obiettivo più ambizioso che la
scienza si sia mai posto. Varie linee di ricerca, condotte con metodi differenti, si sono sviluppate
negli ultimi anni, dal riduzionismo biologico di Crick e dal darwinismo neurale di Edelman alla
coscienza quantistica di Penrose, Popper ed Eccles ed all’intelligenza artificiale di Minsky. Molti
filosofi hanno cercato in qualche modo di correre ai ripari ed hanno elaborato una serie di
argomentazioni allo scopo di dimostrare che esistono ancora buoni motivi, per ora non confutati, in
base ai quali la mente rimarrà per sempre un mistero.
Sicuramente l’aspetto della mente umana che da sempre più ha colpito i filosofi è stato la coscienza
che abbiamo di noi stessi, cioè la sensazione soggettiva di esistere. Si tenga presente, infatti, che
mentre l’intelligenza è in qualche modo osservabile in alcuni mammiferi, l’autocoscienza sembra
essere una prerogativa solamente dell’uomo. Noi siamo consapevoli di esistere, abbiamo una
coscienza con la quale possiamo elaborare pensieri anche astratti e con la quale possiamo riflettere
sul fatto che possiamo elaborare pensieri.
Per molti anni in campo psicologico la scienza è stata condizionata dal comportamentismo di B. F.
Skinner, secondo il quale le uniche entità oggettive, osservabili e sperimentabili erano i nostri
comportamenti e la coscienza, con il suo significato implicito di soggettività, non era osservabile e
quindi non esisteva. La coscienza non può essere definita ed essendo un falso problema non deve
neanche essere presa in considerazione. Il comportamentismo è stato ormai abbandonato dalla quasi
totalità degli scienziati e così la coscienza ha riguadagnato il suo ruolo centrale e fondamentale per
la comprensione del comportamento umano.
Sono quattro i principali filoni di ricerca che vengono attualmente esplorati: l’approccio biologico
fondato sui neuroni di Crick e Edelmann, la possibilità di avere effetti quantistici determinanti per il
funzionamento della coscienza come sostenuto da Penrose e Eccles, il tentativo dei sostenitori
dell’intelligenza artificiale di ricondurre la coscienza ad una sorta di fenomeno collettivo emergente
dall’interazione di numerosi programmi (software) che girano sulla materia (hardware) costituita
dalle cellule del cervello ed infine i modelli basati sulle reti neurali e sulla metafora del cervello
come calcolatore analogico.
La tesi biologica, che vede nei Premi Nobel Crick e Edelman i loro maggiori sostenitori, sostiene
che per capire il funzionamento della mente non si può fare a meno di riferirsi alle caratteristiche
chimico-fisiche delle cellule del cervello (neuroni), perché il pensiero deve essere inteso come una
proprietà emergente dall’interazione dei neuroni. Nel caso di Crick questa posizione sfocia in una
sorta di materialismo biologico, che respinge ogni visione spiritualistica e nega la possibilità del
libero arbitrio. Ogni decisione che noi prendiamo, apparentemente in maniera autonoma, non è
affatto libera, perché è strettamente determinata dall’interazione dei neuroni ed avrebbe potuto,
almeno in linea di principio, essere prevista da un modello matematico abbastanza accurato della

15
nostra mente. D’altra parte l’elaborazione di un modello neurale sul funzionamento del cervello
potrebbe produrre delle teorie talmente complicate e complesse da risultare praticamente
incomprensibile. Potrebbero inoltre entrare in gioco dei comportamenti caotici di questi modelli, tali
da far perdere un potere predittivo a lungo termine al modello stesso. Nel caso di Edelman la
posizione è più sfumata e complessa, perché sembra far intravedere la necessità di introdurre
concetti e modelli di livello superiore non strettamente riconducibili al riduzionismo esasperato
delle sole interazioni neurali.
Gli studi biologici sul funzionamento del cervello stanno permettendo di costruire mappe sempre
più accurate del cervello e stanno correlando ogni zona del cervello con determinate proprietà della
nostra mente (attenzione, linguaggio, memoria, ecc.). Tutte queste ricerche potranno sicuramente
migliorare la cura di certe malattie mentali, ma esiste il rischio di farne nascere molte altre. Si pensi
per esempio al fatto che, una volta individuata la struttura e la posizione del nostro centro del
piacere, potrei mandare degli adeguati stimoli elettrici a quei neuroni e stare tutto il giorno in una
sorta di paradiso a sentire un grande ed immenso piacere “virtuale”!
I sostenitori dell’intelligenza artificiale, come Minsky e Moravec, partendo dagli studi pionieristici
di Turing, sostengono una tesi che potremmo definire funzionalista, in base alla quale l’essenza
della mente è di essere un superprogramma, molto complesso, ma comunque riproducibile da un
computer abbastanza potente, che probabilmente potrà essere costruito in un prossimo futuro. Il
punto centrale della loro argomentazione è che, essendo il software completamente indipendente
dall’hardware, perché i programmi possono essere eseguiti da un qualunque computer, allora questo
implica che è del tutto inessenziale il fatto che la nostra mente sia costituito da cellule. Alcuni
studiosi sono arrivati a prevedere la possibilità di poter scaricare il programma corrispondente alla
mente di una certa persona su un supercomputer, che diventerebbe in tutto e per tutto quella persona
e sarebbe da essa indistinguibile.
Una delle obiezioni maggiori a queste tesi è data dal teorema di Godel, secondo il quale qualunque
sistema logico-deduttivo, come un computer, che manipola simboli di cui ignora il significato,
giunge a costruire delle proposizioni per le quali non riesce a decidere se sono vere o false. Al
contrario un uomo sarebbe immediatamente in grado di riconoscere la verità o falsità di queste
proposizioni, basandosi sulla dimensione semantica e non sintattica dei simboli, cioè sul loro reale
significato. Di solito i sostenitori dell’intelligenza artificiale hanno cercato di superare questo
problema asserendo che è sempre possibile per il computer assumere quella proposizione come un
nuovo assioma del suo sistema logico.
Recentemente hanno acquistato una certa importanza i modelli di reti neurali che non postulano la
presenza della non linearità direttamente al livello fisiologico del singolo neurone, ma introducono
invece l’ipotesi che la non linearità nasca dai parametri che esprimono l’intensità dei collegamenti
fra i singoli neuroni e che sono variabili con continuità. Si passa così da un modello digitale della
mente ad un modello analogico, che sembra essere per certi versi più potente e flessibile. La mente
inoltre non deve essere considerata un sistema chiuso in cui l’unico effetto dell’ambiente esterno sia
la modifica di determinati parametri. Per tenere conto che ambiente e mente possono modificare
continuamente la loro linea di demarcazione, sono stati introdotti dei modelli a frontiera mobile in
cui le condizioni al contorno non sono rigidamente fissate. Si scopre allora che emergono dei
comportamenti collettivi che possono essere messi in corrispondenza con determinate funzioni
mentali (apprendimento, attribuzione di significato, percezione, ecc.).
Un altro filone di ricerca riguarda la possibilità, che gode di un certo seguito soprattutto fra alcuni
fisici, dell’esistenza di un collegamento fra il funzionamento del cervello e le caratteristiche più
misteriose della meccanica quantistica. Fin dagli Anni Trenta sono state avanzate delle ipotesi sul
collegamento fra la spiritualità ed il meccanismo della misura quantistica, e studiosi come Penrose,
Eccles e Popper hanno perfezionato queste idee.
Penrose sostiene che il funzionamento della coscienza non può per il momento essere pienamente
compreso, perché le nostre attuali conoscenze scientifiche sono inadeguate per comprendere la
mente. Solamente quando disporremo di una nuova teoria, che risolva le incompatibilità oggi

16
presenti fra meccanica quantistica e teoria della relatività, si potrà realizzare qualche significativo
progresso. Penrose sembra comunque escludere una visione spiritualistica della coscienza e per
questo aspetto si trova d’accordo con i modelli biologici ed informatici del cervello.
Al contrario, Eccles e Popper hanno proposto una teoria che cerca di dimostrare la presenza dello
spirito nel nostro corpo, ritenendolo responsabile di quel libero arbitrio, negato da tutte le teorie
materialistiche, che ci permette di prendere autonomamente delle decisioni, e quindi, in termini
biologici, di far accendere i neuroni responsabili del pensiero che corrisponde a quella decisione.
I filosofi hanno risposto in modo assai variegato a questi tentativi scientifici di spiegare il
funzionamento della mente. Si trovano sia posizioni di esaltazione delle tesi più estremiste
dell’intelligenza artificiale sia argomentazioni volte a dimostrare l’impossibilità per la scienza di
riuscire a capire che cosa sia la soggettività e quindi l’autocoscienza.
Una critica molto articolata all’intelligenza artificiale che nega decisamente la possibilità per un
computer di raggiungere il pensiero umano è stata condotta da Agazzi, anche se è più nota nel
mondo anglosassone quella, per alcuni aspetti simile, di Searle, sulla base della distinzione fra la
capacità di manipolare simboli, comune all’uomo ed al computer, e la capacità di afferrare il
significato di questi simboli, cioè di capire quale realtà esterna corrisponde al simbolo, che sarebbe
una caratteristica esclusiva dell’uomo.
Da tutte queste ricerche sulla nostra mente, sembra emergere che la scienza si trovi di fronte a un
problema insormontabile, perlomeno se continua ad utilizzare i suoi metodi tradizionali: capire
come nasce e come funziona l’autocoscienza, cioè come si può realizzare un modello oggettivo
della soggettività, sembra ancora al di fuori della portata della scienza contemporanea.

La coscienza è il più grande dei misteri. È forse uno dei problemi più difficili al quale la scienza
deve ancora dare una risposta. Le scienze fisiche sono ben comprese, e le scienze biologiche hanno
rimosso molti degli antichi misteri che circondavano la natura della vita. Molti progressi sono stati
compiuti anche nella scienza della mente. Gli studi recenti nell'ambito della scienza cognitiva e
delle neuroscienze ci hanno portato ad una migliore comprensione del comportamento umano e dei
processi sottostanti che lo guidano. Certo non conosciamo nei dettagli la cognizione umana ma le
ricerche fanno prevedere che nuovi risultati non siano così lontani.
La coscienza, tuttavia, sembra sfuggire alle leggi fisiche, chimiche e biologiche; è qualcosa di
straordinariamente familiare e indiscutibile, ma, nello stesso tempo, diviene misteriosa non appena
la pensiamo sullo sfondo dell'immagine fisica del mondo.
La nostra esperienza cosciente è costituita da innumerevoli stati qualitativi, ovvero colori, odori,
sapori, dolori, sensazioni tattili, cinestetiche, propriocettive; e ancora piaceri, emozioni, stati
d'animo ecc. Tutte queste sensazioni sono profondamente reali e indubitabili e contornano la nostra
vita soggettiva. Eppure non è chiaro in che rapporto la coscienza sia con la realtà che ci circonda; la
realtà scoperta e illustrata dalle leggi fisiche. Negli ultimi anni è stato scritto molto sulla coscienza e
questo potrebbe far pensare che stiamo facendo dei progressi. Tuttavia, la gran parte dei lavori non
tocca i problemi più spinosi relativi alla coscienza. Essi si occupano spesso di quelli che potrebbero
essere chiamati i problemi semplici della coscienza. Si rimane quindi con la sensazione che il
problema centrale resti enigmatico come d'altronde è sempre stato. Questo enigma, come sostiene
Chalmers non deve essere fonte di scoraggiamento; esso piuttosto fa del problema della coscienza
una delle più eccitanti sfide intellettuali del nostro tempo.

La coscienza, come sostengono alcuni studiosi, con molta probabilità scaturisce dal cervello ed è
per questo motivo che filosofi e studiosi di discipline con scarse conoscenze sul funzionamento del
sistema nervoso dovrebbero prendere in seria considerazione lo studio della neuroanatomia. In
effetti, come ha sostenuto Eccles:
Troppa poca considerazione è stata dedicata in passato al meccanismo neuronale implicato nelle
varie manifestazioni della mente auto-cosciente. I filosofi che presentano teorie fisicaliste del
problema cervello-mente, come la teoria dell'identità di Feigl o la teoria dello stato centrale di

17
Armstrong, dovrebbero costruire le loro filosofie sulla comprensione scientifica più accreditata del
cervello loro disponibile. Sfortunatamente essi si accontentano di informazioni sommarie o
antiquate che spesso li inducono ad abbracciare idee erronee. C'è una tendenza generale a
sopravvalutare la conoscenza scientifica del cervello, che riguarda, deplorevolmente, anche molti
studiosi del cervello e scrittori scientifici.

Tuttavia, anche la filosofia è di estrema importanza per la comprensione della coscienza, dunque
allo stesso modo i neuroscienziati dovrebbero considerare, per i loro studi sulla coscienza, le
tematiche filosofiche della mente. È proprio in questa visione dei fatti che dobbiamo, esaminare la
coscienza. È grazie a studiosi di discipline diverse, che vanno dalla neurofisiologia, alla psichiatria,
dalla neuropsicologia alla filosofia, che si potrà arrivare ad una conoscenza più approfondita della
coscienza.

Una rappresentazione è una configurazione che sostituisce la realtà fornendo alcune informazioni su
di essa e tralasciandone altre. Le rappresentazioni aiutano il pensiero umano, facilitano il
ragionamento e guidano il comportamento.
Si possono distinguere in rappresentazioni esterne, che sono usate nella vita di tutti i giorni, e
rappresentazioni interne, che sono le rappresentazioni del mondo che abbiamo nella nostra mente.
Le rappresentazioni esterne, a loro volta, si suddividono in pittoriche e proposizionali.
Le rappresentazioni pittoriche, come i disegni, le mappe e i diagrammi sono analogiche, cioè
mantengono la struttura percettiva del mondo rappresentato. In altre parole, in esse sono mantenute
le relazioni topologiche tra i vari elementi che le compongono.
Le rappresentazioni proposizionali, invece non sono analogiche, perché la relazione tra il segno e
l'oggetto cui esso si riferisce è arbitraria. Il caso tipico è il linguaggio, in cui non c'è alcuna ragione
intrinseca che leghi un oggetto al nome che gli diamo, ma è solo frutto di una convenzione. Le
rappresentazioni linguistiche hanno una struttura grammaticale. In pratica possiedono non solo
classi differenti di simboli, ma anche regole per combinarli tra loro. Infine si può dire che
l'informazione contenuta nelle rappresentazioni linguistiche non ha necessariamente relazione con il
canale percettivo attraverso cui è veicolata.
La distinzione fatta per le rappresentazioni esterne è applicabile anche alle rappresentazioni interne
o mentali.
Le rappresentazioni mentali analogiche hanno la struttura d'immagini e possono essere di tipo
visivo, uditivo, olfatttivo o tattile.
Paivio (1971) propone la teoria della doppia codifica, il cui punto centrale è che esistano due distinti
sistemi per la rappresentazione e l'elaborazione delle informazioni. Esisterebbero, secondo Paivio,
un sistema è verbale, che tratta le informazioni linguistiche e le cui unità rappresentazionali di base
sono i logogeni, e un sistema deputato all'elaborazione delle informazioni non verbali, le cui unità
rappresentazionali sono gli immageni. Ogni sistema è ulteriormente suddiviso in sottosistemi e i
due sistemi simbolici comunicano tra loro attraverso relazioni tra immageni e logogeni. Questa
teoria e i relativi risultati sperimentali concorderebbero con l'ipotesi che rappresentazioni
analogiche e proposizionali siano sostanzialmente separate e differenti, anche se interdipendenti.
Le immagini mentali visive sarebbero, secondo questa posizione, rappresentazioni simili a
fotografie e come tali ruotabili ed esplorabili. Alcune ricerche, condotte allo scopo di esplicitare
quale fosse la natura delle immagini mentali, confermano queste ipotesi: gli esperimenti sulle
rotazioni mentali degli oggetti immaginati dimostrano che, almeno quando non sono troppo
complessi, essi hanno le caratteristiche degli oggetti reali. Inoltre le immagini mentali possono
essere esplorate come se il soggetto percorresse con la mente una mappa (Eysenck, 1990).
Le rappresentazioni mentali proposizionali sono più simili al linguaggio, il che non significa che si
tratti di parole, ma solo che ci permettono di esprimere concetti astratti. Esse costituiscono una
specie di linguaggio universale, che non è collegato a nessuna lingua in particolare e a nessuna
modalità percettiva. Solitamente la natura di queste rappresentazioni è specificata nei termini del

18
“calcolo di predicati”, dove gli oggetti sono gli “argomenti” e le relazioni tra essi sono i “predicati”.
Ogni volta che un predicato è collegato a degli argomenti si ha una “proposizione”.
Alcuni autori non concordano con l'attribuire alle immagini mentali uno status proprio. Ad esempio,
Pylyshyn (1973) le considera epifenomeni e ipotizza l'esistenza di una sola forma di
rappresentazione mentale, quella proposizionale. In altri termini, secondo questo ed altri autori,
l'immagine sarebbe costruita a partire dalla sua sottostante rappresentazione proposizionale.

Un'idea è una rappresentazione mentale che generalmente ha un contenuto ben definito. Ogni idea
ha almeno un protagonista (la cosa su cui l'idea stessa si è formata) e tutte le informazioni relative
ad essa che abbiamo acquisito con la nostra esperienza personale o che ci sono state fornite da altri
(genitori, educatori, ecc.).
Potremmo pensare ad una idea come ad un nucleo centrale formato da una parola che richiama il
soggetto dell'idea e tanti fili che collegano questo nucleo con tutte le parole con cui il soggetto è
stato associato nel corso della nostra vita.
Per semplificare proviamo a pensare all'idea di una mucca; la mucca è il nucleo centrale ma da esso
partono decine di fili che arrivano ad altre parole del tipo: latte, vitello, corna, contadino, stalla, ecc,
che ci danno tutta una serie di informazioni senza le quali l'idea della mucca non potrebbe esistere.
Il numero di informazioni presenti in una idea è assai importante perché è da esse che la mente
cosciente trae gli elementi per decidere e giudicare mentre la mente istintiva (sub/conscia) prende il
necessario per provvedere alla sopravvivenza.
Se ci capita di vedere qualcosa di familiare la memoria ci presenta tutte le informazioni che
abbiamo memorizzato al suo riguardo. Possiamo ritenere che l'informazione più importante
contenuta in una idea sia il grado in cui quella cosa si presenta attraente o repulsiva. In altre parole
la valutazione del suo contenuto in termini di piacere o di dolore.
Nell'animale questo è l'unico elemento di giudizio mentre nell'uomo la valutazione viene
opportunamente filtrata usando le informazioni presenti in altre idee con contenuto etico, religioso o
morale.
L'intenzione di un piano di studio è quella di arricchire la mente degli studenti di idee con un
contenuto teorico e di altre idee con un contenuto pratico per fare in modo che gli stessi sappiano
come agire per affrontare le problematiche inerenti ai materiali studiati.
È molto importante avere ben chiare le leggi con cui la mente memorizza delle nuove idee e come
essa sia in grado di fare delle associazioni tra le medesime e le altre idee che sono state
memorizzate in precedenza.
Una nuova idea che viene associata ad una già presente nella nostra mente ha molte più probabilità
di essere ricordata che non una idea i cui contenuti sono completamente nuovi ed originali.
La stessa cosa accade per quanto riguarda l'accettazione di nuove idee. Più l'idea è insolita e meno
probabilità vi sono che essa formi delle associazioni nella mente dell'ascoltatore; questo potrebbe
spiegare la grande difficoltà che viene incontrata da chi presenta delle idee innovatrici. Si pensi a
galileo ed alle persecuzioni da lui subite per il fatto che il sole come punto centrale del sistema
solare non trovava nessuna associazione con le idee presenti nella mente dei componenti il tribunale
religioso eretto a giudicare le sue asserzioni.
In definitiva possiamo assumere che un'idea è tanto più facilmente assimilata e memorizzata quanto
più:
1. il suo contenuto trova qualche similitudine con quello di altre idee già presenti in noi,
2. vi è in essa una forte carica di piacere o dolore,
3. il suo contenuto desta il nostro interesse o la nostra curiosità,
4. la stessa idea viene ripetuta molte volte fintanto che rimane impressa fortemente.

Jarry Fodor, filosofo della mente e psicologo influenzato dalle idee di Chomsky, internista,
nell’opera Psychological Explanation (Random House, New York 1968) si inserisce nella svolta
psicologista della prospettiva analitica, contestando le teorie a base linguistica della Oxford-

19
Cambridge Philosophy o di filosofie ad essa riconducibili (Moore, il secondo Wittgenstein, Wright,
Austin, Ryle, Ayer, etc…). Fodor ritiene che l’atteggiamento proposizionale implichi pur sempre
l’esistenza di una rappresentazione interna, che precede l’espressione linguistica. Per essere più
chiari, Fodor ripristina la psicologia e la filosofia della mente tradizionali, nel momento in cui parla
di un linguaggio del pensiero, cioè un codice mentale prelinguistico di carattere solipsistico e
privato distinto dal linguaggio standard. Fodor s’interroga sull’origine e il senso degli stati mentali,
e trova questa risposta: gli stati mentali sono “relazioni tra gli organismi e le rappresentazioni
interne, e stati mentali casualmente intercorrelati si succedono gli uni agli altri in accordo con i
principi computazionali che valgono formalmente per le rappresentazioni”.
Ne La mente modulare (1983; trad. it. Il Mulino, Bologna 1988) Fodor accentua ulteriormente i
termini del rapporto analogico mente/computer; la struttura della mente va descritta in termini
rappresentazionali, sulla base del modello input-output.
Come il computer, la mente umana elabora simboli e significati, che agiscono al livello delle
rappresentazioni. Queste teorie sono state ribadite nel suo lavoro più importante, Psicosemantica
(1987; trad.it. Il Mulino, Bologna 1990) che si occupa del significato all’interno della filosofia della
mente, e ricava da questo tema una riflessione sulla necessità di una teorica scientifica
dell’intenzionalità, fondamento di ogni atto mentale (credenze, desideri, etc…).

20
Mente e realtà

Il problema della riducibilità o non riducibilità dei qualia a qualcosa di ontologicamente o


scientificamente prioritario è un problema che riguarda non solo la filosofia della mente.
A tale problema si collega la questione della plausibilità e sostenibilità della distinzione fra qualità
primarie e qualità secondarie, insieme alla possibilità di operare una demarcazione fra proprietà
essenziali e proprietà inessenziali. Sul piano più generale della teoria della conoscenza, il problema
dei qualia può essere convertito nel problema di definire il ruolo giocato dall’esperienza nel
processo conoscitivo. Fino a prova contraria, infatti, il concetto di esperienza difficilmente risulta
separabile da un elemento intrinsecamente qualitativo e contenutistico.
Se sul piano etico lo schema della psicologia intenzionale sembra essere per molti una struttura
concettuale necessaria al fine di rendere conto della nostra attività normativa e valutativa, la
polemica riduzionismo-antiriduzionismo in materia di stati qualitativi sembra inoltre riflettere, su un
piano ancora più generale, quella che Sellars etichettava come il rompicapo che ha origine dal
contrasto fra immagine manifesta e immagine scientifica.
La controversa questione dell’aspetto qualitativo del mentale, e il contrasto fra quella che Chalmers
chiama la distinzione fra mente fenomenica e mente psicologica o cognitiva ha delle radici nella
tradizione filosofica. Una di queste, fra l’altro del tutto e del tutto a torto trascurata, è rintracciabile
nella polemica fra Husserl e Schlick intorno al concetto di intuizione e nella distinzione fra
contenuto (l’aspetto qualitativo, secondario, esperenziale) e forma (l’aspetto quantitativo, primario,
concettuale).
Quello che nella filosofia della mente è il problema dei qualia, in questo pezzo di tradizione
filosofica è il problema dell’intuizione, o del contenuto intuitivo.
Due sono gli aspetti che ritengo a questo proposito rilevanti: a) mostrare l’esistenza di legami
sostanziali fra la polemica Husserl - Schlick sul concetto di intuizione da un lato e la polemica
riduzionisti - anti-riduzionisti nella filosofia della mente dall’altro; b) mostrare l’utilità di alcune
nozioni tecniche di matrice fenomenologica al fine di superare la rigida separazione fra i sostenitori
dell’assoluta irriducibilità dell’elemento qualitativo e coloro che, pur non negando l’esistenza di tale
elemento, asseriscono la sua necessaria riducibilità a qualcosa di altro.
Nella aspra polemica fra Husserl e Schlick rispetto alla nozione di intuizione e al come utilizzare
tale nozione in un concreto atteggiamento scientifico-conoscitivo, due sono le principali questioni
teoriche emergenti:
1) La prima concerne il valore conoscitivo che siamo disposti a attribuire al contenuto intuitivo o,
nel caso della filosofia della mente, all’esistenza di qualia. Strettamente connessa a tale questione vi
è quella della possibilità di articolare e analizzare con strumenti filosofici appropriati il concetto di
contenuto intuitivo, oppure di concepire tale concetto inarticolato, inesprimibile e del tutto
ineffabile (anche se esistenzialmente essenziale). La domanda centrale in questo caso è: possiamo
lavorare ulteriormente sulla nozione di qualia oppure dobbiamo reputare tale nozione primitiva e
indefinibile?
2) Il secondo tipo di questione riguarda lo statuto ontologico dei qualia. E’ in questo contesto che
assume un senso parlare di riduzione, o addirittura di eliminazione, degli stati mentali qualitativi a
favore di altre entità (fisico-neuronali o funzionali). In questo caso una domanda fondamentale
sembra essere : qual è la relazione ontologica fra stati mentali e stati cerebrali?
Sembrerebbe che mentre rispetto a quella che abbiamo definito la questione conoscitiva, le
considerazioni fatte da Husserl e da Schlick contribuiscano molto a chiarire e anche ad approfondire
i problemi di cui si occupa la filosofia della mente, rispetto a quella che abbiamo definito questione
ontologica quelle stesse considerazioni abbiano poco da dire. La mia idea è che, al contrario, alcuni
centrali concetti fenomenologici possano essere indirettamente utilizzati anche rispetto a questo

21
secondo problema, al fine di formulare quello che può essere definito una sorta di fisicalismo
minimale.
Esiste una prima questione, quella concernente cioè il valore conoscitivo attribuibile al contenuto
intuitivo e la possibilità di articolare maggiormente, dal punto di vista filosofico, tale nozione. E’
ora mia intenzione rivolgermi alla seconda questione, quella concernente l’irriducibilità o,
rispettivamente, riducibilità ontologica dei qualia.
E’ importante che le due questioni, e le relative risposte, siano tenute ben distinte. Questo sembra
essere, del resto, il senso della obiezione che un riduzionista come Churchland rivolge alla
posizione anti-riduzionista espressa da Searle, Nagel e Jackson.
Com’è noto, Churchland ritiene che questa posizione, nel compiere l’errore di derivare la natura di
ciò che è conosciuto dal modo in cui è conosciuto, sia soggetta a una fallacia intensionalista. In
generale, il modo in cui qualcosa è conosciuto e descritto non corrisponde infatti a una proprietà di
quel qualcosa.
Io credo che l’obiezione di Churchland sia nella sostanza corretta: in realtà quello che viene
generalmente etichettato come l’argomento della conoscenza confonde quei due piani che ho fin
dall’inizio tenuti distinti: il piano della rilevanza conoscitiva e quello dello statuto ontologico dei
qualia.
Mi sembra tuttavia che, sebbene la parte negativa dell’argomento utilizzato contro l’anti-
riduzionismo sia sostanzialmente corretta, altrettanto non si possa dire della parte costruttiva.
L’argomento dei riduzionisti sembra infatti cadere a sua volta in una fallacia che denominerei,
parafrasando lo stesso Churchland, fallacia estensionalista. Questo tipo di fallacia, che sembra fra
l’altro coinvolgere ogni forma di riduzionismo in relazione al rapporto mente-corpo, può così essere
espressa: le modalità o gli atteggiamenti conoscitivi sono di fatto molteplici e tuttavia il livello
ontologico, il livello di ciò che esiste effettivamente e delle proprietà di ciò che esiste
effettivamente, è in realtà un unico livello: quello dei processi cerebrali o neurologici i quali
determinano, come loro epifenomeno, stati mentali qualitativi. Chi ci garantisce, tuttavia, che
modalità alternative di riferimento non comportino una pluralità degli oggetti cui ci si riferisce? E
se è vero che abbiamo più modalità di riferimento, perché privilegiarne una a scapito delle altre?
Su questo punto esiste a dire il vero una risposta del materialista: il fatto che più modalità
conoscitive convergano su un punto prestabilito (teoria dell’identità) è un’ipotesi empirica e come
tale può essere confermata o smentita solo sperimentalmente. In questa prospettiva, in assenza di
una attuale conferma empirica, ciò che al materialista rimane è la fiducia nei futuri risultati del
progresso scientifico riguardo alla possibilità di scoprire una piena identificazione fra funzioni
cerebrali e fenomeni mentali.
A me sembra che l’argomento basato sulla fiducia nella possibilità della scienza cada in quella che
Husserl soleva denominare fallacia naturalistica o pregiudizio dei dati di fatto. Uno dei principi
cardine della fenomenologia è infatti che qualsiasi oggetto, e in primo luogo l’oggetto della ricerca
scientifica, è frutto dell’opera di costituzione di una soggettività.
Tutte le teorie naturalistiche (e in particolare la naturalizzazione della coscienza) cadono, per
Husserl, in una sorta di ragionamento circolare: esse presuppongono infatti come valida la scienza
naturale nello stesso momento in cui si interrogano sulla sua possibile validità. E nel fare questo tali
teorie cadono inevitabilmente nel dogmatismo.
La mia idea è che i confini di una sorta di fisicalismo minimale e soprattutto il supporto
argomentativo a tale fisicalismo possano essere tracciati se concepiamo la relazione stati mentali-
stati cerebrali alla luce della teoria dell’intero e delle parti di Husserl.
In questa prospettiva mente e corpo possono essere concepiti come parti di un intero fra loro
connesse da un rapporto di fondazione, fondazione che in questo specifico caso deve essere
interpretata come unilaterale o asimmetrica e non come bilaterale o simmetrica (quella che si
verifica, per esempio, nel noto caso del colore e dell’estensione). Tutti gli stati mentali si fondano
su stati cerebrali, ma non vale il viceversa, si pensi agli stati cerebrali che regolano le funzioni
vegetative e del metabolismo.

22
La tesi della sopravvenienza mereologica che ne deriva è compatibile sia con l’emergentismo sia
con la tesi della realizzazione fisica, stando alla quale ogni proprietà mentale ha una base fisica che
ne garantisce l’esemplificazione e senza la quale non può di fatto realizzarsi. Ciò facendo questa
tesi sembra cogliere una sorta di condizione minimale che tutte le posizioni fondamentalmente
fisicaliste relative alla natura del mentale devono condividere.
La tesi della sopravvenienza mereologica sembra in grado di superare la fallacia naturalistica o
estensionalista: non si tratta infatti di operare una sorta di riduzione bensì solo di stabilire relazioni
di dipendenza, o di fondazione che non privilegiano una componente, o una direzione di ricerca, a
scapito dell’altra.
Il concetto di sopravvenienza non costituisce infine una teoria esplicativa. Ciò che tale concetto si
limita a rilevare è un modello di co-variazione fra proprietà mentali e proprietà fisiche che ha
tuttavia un carattere di necessità: se esiste qualcosa che ha le caratteristiche del mentale, questo
qualcosa deve sopravvenire mereologicamente su uno stato fisico.
La sopravvenienza non si pronuncia sulla natura metafisica di tale relazione di dipendenza. Ciò
trova una conferma nell’idea husserliana che non esiste, oltre al legame di fondazione fra le parti,
un autonomo momento di unità suscettibile di essere estrapolato e indagato rispetto al concreto di
cui costituisce, appunto, l’unificazione.
Ancora di più: la fenomenologia husserliana sembra sancire chiaramente l’impossibilità di indagare
una relazione “metafisicamente profonda” che vada oltre i rapporti di fondazione fra le parti non-
indipendenti. Il riferimento a entità ontologiche sottostanti e prioritarie è in questa prospettiva del
tutto bandito.
Se vale la nostra applicazione della teoria dell’intero e delle parti alla relazione mente-corpo, anche
in questo caso sembrerebbe preclusa la possibilità di individuare una spiegazione metafisica della
sopravvenienza mereologica del mentale sul fisico. Tutto ciò che una teoria fisicalista non
metafisica può sancire e indagare sono i necessari rapporti di fondazione unilaterale che sussistono
fra quelle particolari parti non-indipendenti di un concreto che denominiamo stati mentali e stati
cerebrali.

Una distinzione va fatta al fine di produrre chiarezza su due livelli organizzativi dell'esperienza, la
forma ed il processo per raggiungere la forma, ogni azione, è Bateson a suggerirlo in modo molto
chiaro e semplice, ogni azione semplice nel momento che viene legata assieme ad altre azioni
semplici produce una sorta di processo che passa per essere descritto attraverso una categoria
definita forma, se prendiamo ad esempio l'idea di ipnosi possiamo definirla una forma compiuta,
composta da processi tra loro suddivisi in ulteriori forme di precedenti processi, l'ipnosi è la forma,
o semplicemente il nome, di un insieme di processi prodotti da azioni intelligenti, dell'intelligenza,
l'intelligenza è il nome che si da ad un insieme di processi, azioni della mente, orientati ad ottenere
risultati, nuove forme, agiamo, dunque, attraverso un insieme di processi, descriviamo le nostre
azioni attraverso un dare forma, nominare, i processi stessi.
Se andiamo a vedere il processo di costruzione della realtà potremmo dire che il cervello compie
delle azioni separate tra loro, ad esempio la percezione, forma, può essere scomposta nella visione,
ulteriore forma di un processo, infatti la vista diviene la forma attraverso cui nominiamo il processo
visivo, così l'udito ed il tatto, forme di processi separabili tra loro, il nostro cervello costruisce
forme attraverso processi, le descrizioni, come questa che sto utilizzando, sono forme ricavate da
precedenti processi.
Quale utilità ha allora il distinguere le forme dai processi?
L'utilità è operativa, una forma, il nome ad esempio della rosa, non va confuso con il processo della
costruzione della rosa stessa, il nome "rosa" non è la rosa, anche se in noi il termine, nome, "rosa"
scatena l'idea della rosa, dunque il nostro cervello emula l'idea "rosa" e dietro al processo attivato
dal nome c'è la rosa stessa, la sua immagine, la parola "rosa"per l'appunto, la sua fragranza, o altra
esperienza tattile.

23
La cosa particolare è che la mente dell'uomo non distingue tra il livello forma ed il livello processo,
sono una cosa unica, per pensare al nome devo pensare alla cosa, ma nel pensare alla cosa io ne
vedo l'immagine, nel vedere l'immagine ne sento la fragranza, provo la sensazione vellutata al tatto
e così via, forma e processo sono indifferenziati a livello di esperienza, l'esperienza è un processo
che diviene forma senza che noi possiamo farci nulla direttamente.
Così se prendiamo ad esempio un idea, come il concetto: "io amo gli altri e gli altri mi amano!", nel
dire questo noi facciamo una descrizione, diamo forma a degli elementi di percezione raccolti dagli
altri, a seguito di questa proiezione di un idea sulla realtà noi andiamo ad identificarci nella realtà
stessa percependo la forma descritta, proiezione, come l'azione stessa del percepire, il processo, la
forma è nata da un processo che è nato da una forma che è nata da un processo, così di seguito,
forma e processo, proiezione di un idea ed identificazione nella stessa divengono un unico processo
di una nuova forma la realtà che ci circonda, così che il concetto: "io amo gli altri e gli altri mi
amano!" mi fa realmente vivere in un mondo di amore dove do e ricevo amore, lo stesso processo
naturalmente è guida per la differente forma dove l'amore è sostituito per altre ragioni dall'odio.
Amare ed odiare sono in fondo due forme di uno stesso processo, proiezione di una forma ed
identificazione nel processo, ecco la ragione per cui definire i processi mentali uguali con uguali
forme, in modo da considerare che comuni processi portano a comuni forme anche se queste sono
definite in modi differenti.
L'ipnosi è quindi un comune processo mentale che racchiude in se processi differenti la cui somma
da come risultato il processo stesso.
Con l'ipnosi si procede da una forma di pensiero, il pensare, differenziato ad una forma di pensiero
maggiormente unificato o indifferenziato, questo processo di semplificazione dell'esperienza risulta
comune a forme descritte come diverse ma sostanzialmente uguali nel processo sotteso.
Probabilmente arrivando alla prima forma del primo processo si arriva a quell'atto di distinzione,
"primo", nato per dare forma alle cose, il primo atto di conoscenza, per conoscere bisogna agire,
agire la prima forma di distinzione del conoscere, una prima proiezione percettiva, la memoria di
quel primo atto di distinzione è coinciso anche con la proiezione stessa nell'esperienza del ricordare,
per ricordare devo ri-vivere, la memoria è legata ad un processo mentale, stato mentale, un
equilibrio transitorio tra una percezione/sensazione già processo di raccolta di elementi, (i famosi
dati del reale più propriamente definibili "presi" o scelti), ed una descrizione/definizione, dello stato
in cui ci si trova attraverso idee o pensieri, come forma di riferimento, per ricordare, o meglio nel
processo del ricordare, io costruisco la realtà evocata e questo atto di proiezione è un processo
mentale che evoca uno stato o forma di riferimento, l'idea o pensiero connesso al ricordare stesso, a
cui vanno a legarsi successivi processi (complessi di azioni) che permettono o meglio impongono al
processo di conoscenza stesso di progredire, la conoscenza si impone a noi attraverso l'atto
(processo) stesso del memorizzare che è un processo proiettivo o di disvelamento che crea
distinzioni nella realtà, dopo aver distinto ho difficoltà ad annullare un processo di quel tipo dal
momento che per fare la distinzione stessa ho avuto bisogno di creare nella mia mente il processo
stesso di realizzazione, non è possibile conoscere (fare distinzioni) senza rimaner coinvolti nel
processo stesso di proiezione ed identificazione della distinzione stessa.
La difficoltà del processo conoscitivo è legata alla necessità costruttiva della mente, se si
comprende questo processo di emulazione si comprende la portata della conoscenza e di quanto
questa si imponga nelle nostre esperienze.
L'esperienza è la causa ed il mondo è la sua conseguenza, ci dice in modo chiaro Heinz von Foerster
uno dei padri della cibernetica, ma il processo di costruzione della realtà, messo in luce dalle
neuroscienze, impone all'esperienza di essere anticipata per essere percepita, anticipata da un
processo percettivo che opera attraverso continue proiezioni ed identificazioni seguenti al processo
del distinguere e percepire, in un processo continuo in cui la conoscenza passata è l'esperienza
attraverso cui si è disvelato a noi il mondo, il processo di disvelamento seguito all'atto di distinzione
è un processo esperienziale che crea il mondo che lo definisce, tutto rientra in un continuo processo
ricorsivo che si ripresenta continuamente, in un divenire senza mai lasciarci nello stesso mondo.

24
Noi siamo nell'esperienza del mondo che ci ha creati, siamo in quella dimensione indifferenziata in
cui lo stesso procedere della vita ci ha differenziati per farci vivere nel processo di differenziazione
in cui ci troviamo ospitati dalla nostra stessa esperienza di vita.
Il pensiero descrittivo seguente al riconoscimento dell'impatto dell'attività conoscitiva su di noi può
sembrare una vertigine, e così, in effetti, si presenta a noi l'esperienza del ritorno al pensiero
indifferenziato, un'unica indescrivibile esperienza di unione con il tutto, un ritorno
all'indifferenziazione originale, l'origine della vita è ben rappresentata dalla teoria del big bang,
l'origine della vita mentale è rappresentabile da un esperienza analoga in cui si ha la possibilità di
transitare più volte tra i suoi poli opposti attraverso l'esperienza dell'ipnosi.

Quando tentiamo di ricordare un numero di telefono che ci è stato appena dettato, il nome di una
persona da poco presentata o la lista delle cose da comprare al supermercato, attingiamo a un
particolare scompartimento del magazzino della memoria dove le informazioni vengono registrate
temporaneamente: la memoria a breve termine.
Come è capitato di verificare più volte, la quantità di ricordi che possiamo tenere a mente per un
breve periodo è limitata e le tracce mnestiche immagazzinate nella memoria a breve termine sono
labili e facilmente cancellabili. In questo magazzino, infatti, possono soggiornare al massimo una
dozzina di informazioni per un periodo che può andare da pochi secondi fino a qualche minuto. A
questo punto le tracce vengono perse oppure definitivamente trasferite nella memoria a lungo
termine dove, grazie a una condizione più stabile, possono essere mantenute per lunghi periodi (in
taluni casi per sempre). Si ricordi però che in questo caso le tracce, per non andare perdute, devono
essere “ripescate” e mantenute in esercizio.

La storia delle macchine pensanti è una storia che si sviluppa nella seconda metà del Novecento. Il
suo percorso non è affatto lineare perché via via tecnologia e discipline della mente umana si
chiariscono reciprocamente ambiti e definizioni. A loro volta, i mass media (insieme alla forza
prorompente del cinema fantascientifico) propongono miti, esaltano successi e creano scenari non
sostenibili dal punto di vista realizzativo. Le delusioni per risultati sperati non raggiunti sono ancora
più cocenti e il percorso è tutto un susseguirsi di affannose accelerazioni e repentine scomparse
dalla scena.
Tuttavia cinquant'anni di storia hanno permesso di definire chiaramente il quadro di riferimento: il
progettista di macchine che pensano non confonde più macchine ‘dal comportamento intelligente'
con macchine senzienti, cioè dotate di una coscienza artificiale. Ancora nel 1982 il biofisico
Antonio Borsellino chiamato a parlare sul tema "Dall'intelligenza naturale a quella artificiale",
sottolineava, infastidito, che le domande che gli rivolgevano erano sempre le stesse: "Un calcolatore
può acquisire coscienza di sé (e come può se ‘sa' così poco di se stesso, per ora)? può un calcolatore
formulare giudizi estetici o avere sentimento religioso? Avremo anche un'estetica artificiale e una
religione artificiale?"
Il ruolo del calcolatore elettronico è stato determinante in questo progressivo processo di
chiarificazione: ha creato quel substrato comune sul quale tecnologi, scienziati e umanisti hanno
potuto confrontarsi, ma soprattutto ha dato l'occasione a filosofi, psicologi e neuroscienziati di
formulare teorie che l'elaboratore stesso avrebbe potuto validare o confutare.
In questi cinquant'anni abbiamo assistito all'avvento della cibernetica, della bionica, della robotica,
delle reti neurali, della loro scomparsa e del loro riapparire sotto la dizione di connessionismo Ci
hanno annunciato i calcolatori della quinta generazione e, prima che essi si materializzassero, i
biochip ci sono stati presentati come i componenti dei calcolatori della sesta generazione. Abbiamo
addirittura intravisto macchine pensanti virtuali nei robot-software e nei virus che infestano
Internet, suggestionati, forse, dalle inquietanti creature della Vita Artificiale. Ma questi percorsi,
ancorché tortuosi e ricchi di vicoli ciechi, hanno permesso di rivisitare migliaia di anni del pensiero
dell'essere umano, intuizioni e idee di giganti che avevano a disposizione solo le loro capacità di
introspezione e di comprensione del mondo e di loro stessi. Sicuramente il calcolatore elettronico

25
non è stato decisivo in questo processo di chiarificazione, ma è stato il deus ex machina che ha
permesso una nuova riflessione e sistematizzazione delle discipline relative allo studio della mente
e del cervello. La filosofia (o le filosofie) della mente, la scienza cognitiva, la psicologia cognitiva e
le neuroscienze sono, oggi, in grado di definire ambiti e contesti in cui il costruttore dovrà
muoversi, anche se, paradossalmente, il calcolatore elettronico potrebbe non essere il componente
d'elezione attorno al quale progettare macchine intelligenti o coscienti.

L'essere artificiale, nell'immaginario collettivo, deve dimostrare una di essere intelligente o di


essere cosciente? Il termine intelligenza richiama una prestazione che possiamo attribuire a oggetti
e animali.. Il termine coscienza sembra più appropriato per gli esseri viventi: sicuramente per gli
umani, a volte per qualche specie animale.
Tuttavia per una serie di motivi economici la dicotomia intelligenza/coscienza è stata
sbrigativamente ridotta al primo termine. Negli anni cinquanta era lecito solo interrogarsi
sull'intelligenza delle macchine. E' interessante sottolineare che la maggior parte dei contributi
scientifici sull'argomento, dagli anni Cinquanta agli anni Ottanta, è riferita a macchine i cui
progettisti erano ansiosi di farle apparire intelligenti..
D'altra parte l'avvento del calcolatore suggerì ai progettisti di simulare alcune caratteristiche
cognitive proprie dell'essere umano. Poiché il calcolatore riesce a operare in ambiti computazional-
sintattici, la prima forma di intelligenza presa in considerazione fu il ragionamento logico. La
disciplina denominata intelligenza artificiale nasce con questa connotazione, anche se non coincide
con la totalità delle forme di intelligenza che potrebbero essere progettate e costruite dall'essere
umano. Il motivo per cui si è identificata la progettazione ingegneristica dell'intelligenza con
l'intelligenza artificiale, enfatizzando certi aspetti dell'intelligenza (le prestazioni deduttive e logico-
matematiche) trova un preciso riscontro in una particolare fase dell'evoluzione del pensiero tecnico-
scientifico che ha trovato nel calcolatore lo strumento paradigmatico per eccellenza. Inoltre non
sono da trascurare le articolate connessioni con il mercato e le varie strategie di finanziamento:
spesso nel frastagliato confine tra ricerca e mercato si confonde l'esigenza di una certa disciplina
con l'esistenza della stessa.

Quando nel 1956 un gruppo di visionari coniò il termine artificial intelligence il mercato era
lontano: l'obiettivo era quello di utilizzare la scienza dei calcolatori per togliere a filosofi, psicologi
e neurofisiologi il monopolio dello studio delle attività mentali dell'essere umano, con particolare
riferimento all'intelligenza. Molte delle speranze e delle illusioni che l'intelligenza artificiale (IA)
aveva suscitato sono riconducibili all'ambiguità insita nelle sue due iniziali accezioni: IA forte e IA
debole. Secondo la debole, il calcolatore è in grado di costituire un ottimo strumento per lo studio
della mente; secondo la forte, i computer, se programmati, presentano stati cognitivi e, quindi, i
programmi (il software) si possono identificare con le capacità cognitive dell'uomo. Era facile per il
filosofo John R. Searle scrivere: "Esattamente quella caratteristica dell'intelligenza artificiale forte
che sembrava così attraente - la distinzione tra il programma e la realizzazione - si dimostra letale
all'affermazione in base alla quale la simulazione può essere replicazione. Nessuno crede che la
simulazione al calcolatore di un incendio brucerà tutto il vicinato".

Nel contesto della disciplina intelligenza artificiale il concetto di cane è rappresentato dall'insieme
delle sue proprietà (abbaia, ha quattro zampe, ecc.) che sono anch'esse entità simboliche. Invece,
durante il processo di apprendimento di una rete neurale artificiale, a ogni concetto viene associata
una diversa distribuzione delle proprietà quantitative delle connessioni tra neuroni che non hanno
alcun significato simbolico. E' quello che avviene nel cervello umano in cui è difficile trovare entità
simboliche - come concetti, proprietà, regole - mentre quello che troviamo sono entità fisiche
(neuroni, assoni, sinapsi, trasmettitori chimici) che devono essere descritte in termini fisici
quantitativi. Osservava, alcuni anni fa, John Searle: "Solamente una macchina può pensare (ossia i
cervelli e quelle macchine che hanno gli stessi poteri causali dei cervelli)... e questa è la principale

26
ragione per la quale l'intelligenza artificiale forte ha avuto poco da dirci sul pensiero: perché non ha
nulla da dirci sulle macchine. Per la sua stessa definizione ha a che fare con i programmi (ossia il
software), e iprogrammi non sono macchine (ossia hardware)".

Il robot teleguidato, utilizzato dalla polizia per ispezionare oggetti e auto sospette, è una metafora di
quello che i filosofi intendono con l'ipotesi dell'homunculus. Per spiegare come funziona la mente
spesso si ipotizza che tutti i vari stimoli che provengono dall'esterno (e che vengono veicolati
all'interno del cervello attraverso gli organi di senso e il sistema nervoso periferico) siano
interpretati e gestiti da un ente misterioso residente in qualche zona della struttura cerebrale: il
cosiddetto homunculus. Esso - in base agli stimoli esterni e agli obiettivi e motivazioni che vuole
darsi — decide cosa fare e invia opportuni comandi ai suoi organi effettori: i muscoli che
controllano il sistema di locomozione (per esempio le gambe), il sistema di manipolazione (torso-
braccia-mani), l'apparato vocale, il movimento degli occhi. Il robot teleguidato - una specie di
carretto mobile dotato di ruote o cingoli, munito di uno o più manipolatori meccanici e di una o più
telecamera integrata con sensori di vario tipo - è spesso ospite dei telegiornali di tutto il mondo. E'
un corpo che invia segnali sensoriali e riceve comandi motori da un essere umano che diviene,
quindi, l'homunculus personale del robot, ovvero la sua mente. Il fatto che l'essere umano sia situato
a distanza di sicurezza è del tutto irrilevante. La metafora mantiene inalterata la sua validità anche
se sarebbe più pregnante la presenza di un piccolo gnomo nascosto nel carretto, come avveniva,
d'altra parte, nell'automa ‘giocatore di scacchi di Maelzel' in cui Edgar Allan Poe aveva dimostrato
la presenza di un uomo nascosto.

Gli anni Settanta e l'inizio degli anni Ottanta avevano testimoniato i grandi successi dell'intelligenza
artificiale e della robotica industriale. Sembrava che i costruttori di automi avessero deciso di
separare lo studio del corpo degli organismi artificiali (robotica industriale) dallo studio della loro
mente (intelligenza artificiale). In realtà era stato il mercato a imporre le direzioni della ricerca. Il
robot industriale non può avere vita propria, ma deve accettare e adattarsi alle regole della fabbrica.
Analogamente l'intelligenza artificiale doveva simulare le attività intellettuali più sofisticate
dell'essere umano, perché lì risiede la possibilità di costruire pacchetti applicativi in grado sostituire
gli esperti umani. Il luogo di lavoro del robot industriale è la fabbrica; le applicazioni più redditizie
dell'intelligenza artificiale sono le banche e le istituzioni burocratico-amministrative.
L'intelligenza artificiale aveva scelto di svincolarsi dal confronto reale con l'ambiente circostante.
Anzi, in analisi critiche sull'intelligenza artificiale, si osserva che il momento di stallo, in cui si è
trovata la disciplina, sarebbe potuto essere imputabile alla difficoltà di gestire - secondo le classiche
metodologie - alcuni tra i temi centrali dell'interazione tra le forme viventi e l'ambiente quali
l'apprendimento e la rappresentazione del mondo esterno. Se ciò risultasse vero, potrebbe diventare
paradigmatico il ruolo della robotica intesa come la disciplina che, nell'ambito delle forme di
intelligenza costruite dall'essere umano, sposta il centro dell'attenzione dalla simulazione alla
costruzione di oggetti reali che devono agire in ambienti non ordinati.
La conseguenza di tale prospettiva consistette nella perdita del ruolo dominante della simulazione
delle attività cognitive superiori, mentre esaltò il ruolo di un corpo con il quale affrontare l'infinita
variabilità del mondo in cui dovrà operare. L'analogia tra l'intelligenza artificiale e quella naturale
divenne fragile, sfumando confronti e rendendo più pregnanti eventuali sorgenti di preoccupazione
sulle implicazioni delle future generazioni di macchine pensanti.

Negli anni Ottanta la metafora della mente come computer (secondo la quale la mente sta al
cervello come il software sta all'hardware) sembra perdere molto dello smalto acquisito nei
precedenti decenni. O meglio i seguaci della Intelligenza Artificiale forte, per cui la mente è
esattamente un programma per computer, non riescono a reggere gli attacchi di coloro che
sostengono che la mente è qualcosa di più della manipolazione di simboli formali. Quando
pensiamo, le parole che attraversano la nostra mente non sono semplicemente simboli formali non

27
interpretati: le parole hanno un significato, una semantica. I simboli formali di un programma per
computer non garantiscono la presenza del contenuto semantico che si trova nelle menti reali.
Si assiste, invece, alla definitiva affermazione dell'accezione debole dell'Intelligenza Artificiale,
secondo la quale il computer è uno strumento utile per fare simulazioni della mente, così come lo è
per fare simulazioni di qualsiasi cosa che possiamo descrivere con precisione.

Supponiamo che qualcuno suoni il campanello della porta di casa. Conosciamo perfettamente come
il campanello provochi le vibrazioni dell'aria e come queste siano in grado di eccitare il nostro
apparato acustico; siamo anche in grado di ipotizzare il possibile percorso dei relativi segnali
nervosi lungo le reti neurali del nostro cervello. Tuttavia come avvenga che nel mio cervello si
verifichi il "din don" causato dall'aver pigiato il pulsante del campanello resta un mistero. Per
coscienza intendiamo questa capacità di fare un'esperienza, un'esperienza cosciente.

Finora solo pochi hanno indirizzato la ricerca delle modalità di costruzione di un soggetto artificiale
genuinamente intenzionale e pertanto anche cosciente. Fra questi va annoverato il pluriennale
tentativo di Igor Aleksander, dell'Imperial College di Londra, di definire e costruire un agente
artificiale cosciente, nella convinzione che uno sviluppo adeguato di un essere artificiale non possa
che corrispondere alla nascita di una dimensione mentale (cosciente) artificiale. Del resto anche
Searle, storico sostenitore della natura biologica della coscienza umana, ha ribadito che non vi è
alcun motivo a priori per negare che una creatura artificiale, capace di riprodurre i meccanismi
fondamentali del cervello umano, possa corrispondere a un soggetto cosciente.
Quanto poi la comprensione dei meccanismi biologici sia necessaria alla realizzazione dei
meccanismi che sottostanno alla emergenza della coscienza non è affatto chiaro. Da un lato
l'intelligenza artificiale classica ha sempre rifiutato di imitare i processi biologici. D'altro lato,
proprio il fallimento dell'IA classica — nel riprodurre un soggetto comparabile all'essere umano —
sembra spingere connessionisti e neuroscienziati a cercare nella riproduzione esatta dei meccanismi
del cervello l'unica via possibile per replicare un soggetto.

Nell'ambito delle tematiche della coscienza artificiale ci si deve interrogare su cosa s'intende per
coscienza? Non la coscienza morale, bensì quella che gli anglosassoni definiscono consciousness e
che corrisponde alla capacità di un soggetto umano di fare esperienza dei propri pensieri, di se
stesso e del mondo. La coscienza è stata la grande assente della ricerca scientifica nel Novecento:
adesso i tempi stanno cambiando e la letteratura sull'argomento sta dilagando, impegnando studiosi
e premi Nobel che provengono dalle discipline più disparate (Roger Penrose, Gerard Edelman e
Francis Crick). Fino a oggi si sono applicate al problema della coscienza le categorie di Galileo, di
successo nello spiegare i fenomeni fisici, ma insufficienti nello spiegare i fenomeni mentali.
Quando un essere umano fa esperienza del mondo (ossia percepisce colori e sapori, oppure prova
dolore e piacere) coglie degli aspetti qualitativi della realtà, che la scienza galileiana non è in grado
di misurare. Tuttavia le qualità esistono: anche se da Cartesio in poi esse sono state relegate nel
chiuso di una dimensione spirituale che non può venire aggredita scientificamente. Finora è stato
possibile eludere il problema perché non vi erano le condizioni tecnologiche per poter costruire un
essere cosciente artificiale. Finora la progettazione di artefatti (automobili, ponti, satelliti,
computer) non ha richiesto la comprensione della coscienza. Oggi che i robot iniziano ad
avvicinarsi all'essere umano - sia come capacità di calcolo sia come struttura fisica — il problema
non può più essere evitato.

Come si è detto, la scienza, allo stadio attuale, non ha la minima idea di come sia possibile che un
sistema fisico (un cervello, un sistema nervoso, un insieme di neuroni) possa produrre quell'insieme
strano di fenomeni che corrispondono alla nostra esperienza cosciente. Non solo. La scienza non sa
neppure cosa siano questi fenomeni. Paradossalmente il problema della coscienza sta diventando
sempre più urgente e importante man mano che le nostre possibilità di indagine del cervello

28
progrediscono. Alcuni decenni fa, quando era pressoché impossibile studiare, in vivo, gli unici
cervelli di cui si sappia con certezza che producano la coscienza (i cervelli umani), si poteva sempre
sperare che il progredire dei mezzi di indagine avrebbe permesso di scoprire all'interno del cervello
un qualche fenomeno fisico sconosciuto e straordinario che avrebbe risolto ogni incertezza. Questo
non è avvenuto e il cervello, per quanto complesso, è rimasto un oggetto fisico come gli altri.
D'altro lato le teorie filosofiche sulla coscienza, attuali e passate, non forniscono indicazioni chiare
su come procedere nella costruzione di un soggetto e sono per questo non-scientifiche nel senso di
non-falsificabili empiricamente.
Ma perché è così difficile il problema della coscienza? Un esempio chiarirà la cosa. Immaginiamo
di stare guardando una penna rossa. Noi facciamo esperienza della penna e delle sue proprietà, tra le
quali quella del rosso. Tuttavia, secondo la scienza, noi siamo il nostro cervello e tutte le volte che
facciamo esperienza di qualcosa è perché dentro il nostro cervello succede qualcosa che provoca la
nostra esperienza. E tuttavia … il nostro cervello non diventa rosso quando noi guardiamo la penna
rossa. Il nostro cervello rimane un oggetto fisico distinto dalla penna che osserva, non ne riproduce
le proprietà. E' straordinario che per tanto tempo si sia accettata l'idea che l'oggetto cervello potesse
‘creare' le nostre sensazioni quasi che una ‘sensazione' non fosse nulla di ‘reale' o quasi che il
cervello potesse compiere un'azione di ‘magica creazione'. Per quanto se ne sa, nessun oggetto è in
grado di creare nessun altro oggetto, al più di assemblare, trasformare, modificare. E l'oggetto
cervello non può essere diverso dagli altri da questo punto di vista. Del resto tutte le discipline
scientifiche mature sono rette da qualche forma del principio di conservazione. La scienza biologica
conobbe uno dei suoi più grandi progressi quando rifiutò l'idea della possibilità della generazione
spontanea. La scienza fisica quando introdusse i principi di conservazione del moto e della massa.
L'elenco potrebbe continuare numeroso. Non si vede perché il significato e l'esperienza dovrebbero
seguire criteri diversi. Inoltre quello che il cervello dovrebbe creare non è neppure descrivibile in
termini di presenza fisica. Sensazioni, pensieri, immagini, percezioni nel senso di contenuti della
coscienza sono entità quantomeno evanescenti e prive di ogni traducibilità fisica oggettiva (ma non
empirica). Attendersi che, quasi per magia, i "segnali nervosi diventino immagini e sensazioni" è
ancora più incredibile. L'assunto Galileiano secondo il quale tutte le entità fisiche sono entità
oggettive, implica che i segnali, in qualunque sistema fisico (e quindi anche dentro i nostri cervelli)
siano e restino fenomeni di tipo fisico. Il plurisecolare dibattito sulla natura e sulla relazione tra le
qualità primarie/secondarie ha, di fatto, generato un'innumerevole progenie di paradossi ed enigmi.
Forse è tempo che sia posta in dubbio.

Ma se gli esseri umani sono coscienti si deve spiegare come sia possibile che un sistema fisico
produca l'esperienza cosciente. Pensiamo alla Terra prima della comparsa degli esseri viventi. E'
piuttosto ragionevole supporre che, in assenza di organismi viventi, non vi fosse nessuna esperienza
cosciente. All'altro estremo, quattro miliardi di anni dopo, abbiamo la terra popolata dagli esseri
umani che, come abbiamo detto, sono coscienti. A un certo punto l'evoluzione deve avere
determinato la comparsa dell'esperienza cosciente: dove e perché?
Del resto, e l'esempio è così quotidiano che si tende a dimenticare, l'esperienza cosciente viene
prodotta ogni volta che un nuovo essere umano è concepito e si sviluppa. Pensiamo a un ovulo
fecondato. E' un oggetto fisico come gli altri dal punto di vista dell'esperienza cosciente. Siccome è
privo di sistema nervoso pare ragionevole che sia privo anche di esperienza cosciente. Dopo
qualche mese o dopo alcuni anni avrà un'esperienza cosciente paragonabile alla nostra. Un oggetto
fisico privo di esperienza cosciente è diventato un soggetto cosciente che fa esperienza di sé e del
mondo. Cosa è successo?
Oggigiorno non è chiaro quale sia l'elemento determinante per l'insorgere della coscienza. Non è
neppure chiaro se la coscienza insorga in modo brusco o graduale.

29
L'essere cosciente è legato a qualche altro fattore che l'evoluzione ha selezionato e che lo sviluppo
realizza per ciascun individuo . Non sappiamo neppure se esistano limiti a questa capacità di essere
coscienti o se possa avere una ulteriore espansione.
E' necessario sottolineare che l'essere coscienti è separato dall'essere vivi. Essere vivi significa
essere costituiti da molecole basate sulla replicazione del DNA, essere coscienti significa essere in
grado di fare esperienza del mondo. Il fatto che, per ora gli unici esseri coscienti siano anche esseri
vivi non deve precludere il tentativo di costruire esseri coscienti senza fare ricorso a strutture
biologiche viventi. Una ulteriore precisazione: in base alle conoscenze odierne, niente lega la
struttura del DNA o dell'atomo di carbonio al nostro essere coscienti. E se questo fosse vero
significa che è possibile supporre e immaginare il modo in cui una struttura artificiale possa
produrre un soggetto dotato di esperienze coscienti. In sintesi, è possibile che il secolare impasse in
cui si è imbattuta la scienza, nello spiegare la natura della mente cosciente, sia causato non tanto
dalla natura della problema in sé quanto dalle ipotesi che acriticamente si sono accettate sulla natura
della realtà. Cambiando queste, e sottoponendole al vaglio dell'evidenza è possibile che si guadagni
una migliore comprensione tanto della coscienza quanto della realtà.

30
Mente e computer

L'analogia fra computers e cervello ha affascinato l'umanità e gli scienziati fin dalla costruzione dei
primi "cervelli elettronici". Il padre della moderna intelligenza artificiale, Alan Turing, elaborò fin
dal 1950 un ipotetico test cruciale in grado di definire il raggiungimento da parte di un computer di
un livello di intelligenza, non solo computazionale, ma anche emozionale paragonabile a quella
umana. Secondo il test di Turing tale raggiungimento potrebbe considerarsi completato quando una
persona che intervisti senza vederli un computer ed un essere umano non sia in grado di decidere
quale sia il computer e chi l'umano. Nonostante la capacità computazionale dei computers aumenti
esponenzialmente e sia stimata oggi più che raddoppiare ogni anno e nonostante alcune previsioni
prevedano che un computer da 1.000 euro supererà la capacità di calcolo di tutti i cervelli umani
esistenti entro i prossimi 40 anni, nessun computer ha superato fino ad oggi qualcosa di equivalente
al test di Turing.
Accanto a computers sempre più potenti ma che utilizzano meccanismi computazionali non
paragonabili a quelli cerebrali, gli studiosi dell'intelligenza artificiale stanno sviluppando sistemi
computazionali, quali le reti neurali, che partono dal principio fondamentale del funzionamento dei
circuiti neurali, la plasticità sinaptica e la capacità di modificare la propria attività sulla base
dell'apprendimento e della precedente attività. Così, i più entusiasti studiosi dell'intelligenza
artificiale prevedono che nel corso del presente secolo non solo si avranno computers in grado di
avere consapevolezza di sé e di sentire qualcosa di molto simile alle emozioni umane, ma
ipotizzano addirittura una sempre più stretta simbiosi fra l'uomo ed un computer che abbia
raggiunto il livello evolutivo non solo di una macchina intelligente ma addirittura di una macchina
spirituale.

L’idea alla base del modello computazionale della mente è che la mente sia il programma e il
cervello l’hardware di un sistema computazionale. Uno slogan che si incontra spesso dice: «La
mente è per il cervello ciò che il programma è per l’hardware».
Iniziamo la nostra indagine su questo tema distinguendo fra tre questioni: Il cervello è un computer
digitale? La mente è un programma per computer? Le operazioni svolte dal cervello possono essere
simulate da un computer digitale?
Affronterò la prima questione, non la seconda o la terza. Penso che alla seconda si possa rispondere
in modo decisamente negativo. Dal momento che i programmi sono definiti in modo puramente
formale o sintattico e dal momento che le menti possiedono un intrinseco contenuto mentale, ne
consegue immediatamente che il programma non può costituire la mente. La sintassi formale del
programma non è sufficiente a garantire da sola la presenza di contenuti mentali. È stato dimostrato
una decina di anni fa nell’Argomento della stanza cinese (1980). Un computer, io ad esempio,
potrebbe svolgere i passaggi nel programma grazie a qualche capacità mentale, come per esempio
comprendere il cinese senza capire una parola di cinese. L’argomento si fonda sulla semplice verità
logica per cui la sintassi non corrisponde alla semantica, né è di per sé sufficiente a determinare la
semantica. Così la risposta alla seconda domanda è ovviamente «no».
La risposta alla terza domanda mi sembra egualmente ovvio sia «sì», almeno per quanto riguarda
l’interpretazione naturale. Interpretata naturalmente, la domanda significa: esiste una descrizione
del cervello tale che con quella descrizione si possa compiere una simulazione computazionale delle
operazioni cerebrali? Ma, se si accoglie la tesi di Church per cui ogni cosa di cui può essere data
una caratterizzazione sufficientemente precisa come di una sequenza di passi può essere simulata su
un computer digitale, ne deriva banalmente che la domanda ha una risposta affermativa. Le
operazioni cerebrali possono essere simulate su un computer digitale nello stesso senso in cui
possono essere simulati i sistemi del tempo atmosferico, il comportamento del mercato di New

31
York o il modello dei voli di linea sopra l’America latina. Allora la nostra domanda non è: «La
mente è un programma?», la cui risposta è «no»; né è: «Può il cervello essere simulato?», la cui
risposta è «sì». La domanda è: «Il cervello è un computer digitale?». Per le intenzioni di questa
discussione io sto considerando questa domanda come equivalente a: «I processi cerebrali sono
suscettibili di calcolo?».
Si potrebbe pensare che questa domanda perderebbe gran parte del suo interesse con una risposta
negativa alla seconda domanda. Il che vuol dire che si potrebbe supporre che al di là del fatto che la
mente sia un programma, non c’è nessun interesse per la domanda se il cervello sia un computer.
Ma non è questo il punto, in realtà. Persino per quanti ritengono che i programmi non siano i soli
elementi costitutivi dei fenomeni mentali resta ancora aperta una domanda importante: ammesso
che nella mente ci sia altro oltre le operazioni sintattiche di un computer digitale, nondimeno
potrebbe darsi che gli stati mentali siano almeno stati computazionali e che i processi mentali siano
processi computazionali che operano sulle strutture formali di questi stati mentali. è questa, infatti, a
mio parere, la posizione maggiormente condivisa.
Non dico che la visione sia pienamente chiara, ma l’idea suona più o meno così: a un certo livello
descrittivo i processi mentali sono sintattici; ci sono, per così dire, delle «frasi nella testa». Queste
devono essere non in inglese o in cinese, ma, forse, nel «linguaggio del pensiero» (Fodor, 1975).
Ora, come tutte le frasi, anche queste hanno una struttura sintattica e una semantica, o significato, e
il problema della sintassi può essere separato dal problema della semantica. Il problema della
semantica è: come acquisiscono un significato queste frasi nella testa? La questione può essere
discussa indipendentemente da come il cervello funzioni nell’elaborare queste frasi; tipicamente si
suppone che lavori come un computer, eseguendo operazioni di calcolo sulla struttura sintattica
delle frasi nella testa.
Tanto per fare chiarezza sui termini, io chiamo Intelligenza artificiale forte la visione in cui tutto ciò
che è necessario per avere una mente è avere un programma, Intelligenza artificiale debole la
visione in cui processi cerebrali (e mentali) possono essere simulati con un computer, e
cognitivismo, la visione in cui il cervello è un computer.
Tratterò ora del cognitivismo, e sarà meglio spiegare fin dall’inizio ciò che mi motiva. Se si leggono
libri sul cervello (per esempio Shepherd, 1983; oppure Kuffler e Nicholls, 1976) si trova una certa
idea di ciò che accade nel cervello. Se si guarda a libri sulla computabilità (per esempio Boolos e
Jeffrey, 1989) si trova un’idea della struttura logica della teoria della computabilità. Se poi ci si
rivolge ai libri sulle scienze cognitive (per esempio Pylyshyn, 1985), essi sostengono che ciò che
viene descritto nei libri sul cervello è in effetti la stessa cosa che viene descritta nei libri sulla
computabilità. Da un punto di vista filosofico la cosa non mi convince e ho ormai imparato a
seguire, almeno all’inizio di una ricerca, il mio istinto.

II. La Storia originaria


Desidero iniziare la discussione cercando di affermare con la massima chiarezza possibile perché il
cognitivismo mi sia sembrato intuitivamente attraente. Esiste una storia della relazione tra
l’intelligenza umana e la computazione che risale almeno fino al classico scritto di Turing (1950) e
io credo che sia da porre lì il momento fondativo della visione cognitivista. Lo chiamerò la Storia
originaria.
Iniziamo con due risultati di logica matematica: la tesi di Church-Turing (o equivalentemente, la
tesi di Church) e il teorema di Turing. Per quanto ci riguarda, la tesi Church-Turing afferma che per
ogni algoritmo esiste una macchina di Turing che può implementare quell’algoritmo. La tesi di
Turing dice che esiste una macchina di Turing universale che può simulare qualunque macchina di
Turing. Ora, se consideriamo insieme queste due affermazioni abbiamo come risultato che una
macchina di Turing universale può implementare un algoritmo qualsiasi.
Cos’è che rende questo risultato così eccitante? Ciò che mandò i brividi su e giù per la spina dorsale
di un’intera generazione di giovani ricercatori nel campo dell’intelligenza artificiale è il pensiero
seguente: «Immagina che il cervello sia una macchina di Turing universale».
32
Ci sono delle valide ragioni per supporre che il cervello sia una macchina di Turing universale?
Continuiamo con la Storia originaria.
è chiaro che almeno alcune abilità mentali dell’uomo sono algoritmiche. Per esempio, io posso
coscientemente eseguire una lunga divisione seguendo i passi di un algoritmo destinato alla
risoluzione delle divisioni lunghe. Segue, inoltre, dalla tesi di Church-Turing e dal teorema di
Turing che tutto ciò che un essere umano può fare con un algoritmo può essere fatto anche con una
macchina di Turing universale. Per esempio posso implementare su un computer esattamente lo
stesso algoritmo che uso per fare una divisione lunga a mano. In questo caso, come ha scritto
Turing (1950), sia io, il computer umano, che il computer meccanico stiamo implementando lo
stesso algoritmo; io lo sto facendo consciamente, il computer inconsciamente. Ora, sembra
ragionevole supporre che ci siano moltissimi processi mentali che sono attivi nel mio cervello
inconsciamente e che sono anche computazionali. Se le cose stanno così, allora potremmo scoprire
come funziona il cervello simulando tutti quei processi su un computer. Proprio come è stata
realizzata una simulazione al computer dei processi per fare lunghe divisioni, allo stesso modo
potremmo costruire una simulazione al computer dei processi di comprensione linguistica,
percezione visiva, categorizzazione e così via.
«Ma che dire della semantica? Dopo tutto, i programmi sono puramente sintattici». A questo
proposito, un altro insieme di risultati logico-matematici entra in scena nella nostra storia.
Lo sviluppo della teoria della dimostrazione ha mostrato che, entro limiti ben definiti, le relazioni
semantiche tra proposizioni possono essere interamente riflesse dalle relazioni sintattiche tra le frasi
che esprimono quelle proposizioni. Ora, supponiamo che nella testa i contenuti mentali siano
espressi sintatticamente, allora tutto ciò che dovremmo considerare per i processi mentali sarebbero
i processi computazionali fra gli elementi sintattici nella testa. Se comprendiamo correttamente la
teoria della dimostrazione, gli elementi semantici prenderanno cura di loro stessi; ed è quanto fanno
i computer: implementano la teoria della dimostrazione.
Abbiamo perciò un programma di ricerca ben definito. Cerchiamo di scoprire i programmi
implementati nel cervello programmando i computer per implementare programmi uguali.
Mettiamo ciò in pratica portando il computer meccanico allo stesso livello di performance del
computer umano (cioè che possa superare il test di Turing) e poi invitando gli psicologi a provare
che i processi interni sono gli stessi in entrambi i tipi di computer.
Vorrei che il lettore tenesse in mente, leggendo le pagine che seguono, la Storia originaria come
l’abbiamo descritta, notando in particolare il contrasto evidenziato da Turing fra l’implementazione
cosciente del programma presso il computer umano e l’implementazione non cosciente dei
programmi, sia essa del cervello o del computer meccanico; è da notare inoltre l’idea che sia
possibile scoprire dei programmi che funzionano nel mondo naturale, esattamente gli stessi
programmi che noi inseriamo nei nostri elaboratori meccanici.
Nei libri o articoli che sostengono il cognitivismo si trovano varie assunzioni comuni, spesso non
dichiarate, ma non per questo meno pervasive.
1. Si assume spesso che l’unica alternativa all’idea che il cervello sia un computer digitale sia una
certa forma di dualismo. L’idea è che, a meno che non si creda nell’esistenza di un’anima
immortale come suggeriva Cartesio, si è costretti a credere che il cervello sia un computer digitale.
Infatti spesso si ha l’impressione che l’affermazione secondo la quale il cervello è un meccanismo
fisico che determina i nostri stati mentali e quella per cui il cervello equivale a un computer digitale
non siano altro che la stessa cosa. L’idea, a livello retorico, è di costringere il lettore a pensare che o
si trova d’accordo con ciò che sta leggendo oppure si rende protagonista di strane idee
antiscientifiche. Recentemente il campo è stato allargato un po’ e si è accettata la possibilità che il
cervello possa essere diverso dall’antiquato modello di computer di Von Neumann, ma piuttosto un
tipo più sofisticato di elaboratore parallelo. Ancora oggi affermare che il cervello non è simile a un
elaboratore equivale a rischiare la propria reputazione scientifica.
2. è stato anche detto che interrogarsi a proposito della natura computazionale delle elaborazioni
cerebrali è soltanto una semplice domanda empirica. Deve essere sottoposta a investigazione come

33
per esempio è successo per dimostrare che il cuore è paragonabile a una pompa e che le foglie delle
piante permettono la fotosintesi. Non c’è spazio per la logica spiccia né per la semplice analisi
concettuale, questo perché stiamo parlando di materia strettamente scientifica. In effetti non credo
che molti studiosi del campo riterrebbero che il titolo di questo scritto rimandi in alcun modo a una
domanda di natura filosofica. «Il cervello è realmente un computer digitale?» non è una domanda
filosofica più di quanto non lo sia «Il neurotrasmettitore delle giunzioni neuromuscolari è realmente
acetilcolene?».
Anche persone che non hanno simpatia per il cognitivismo come Penrose e Dreyfus, sembrano
trattare l’argomento come un semplice dato di fatto. Non sembrano preoccuparsi poi molto di
chiarire esattamente quale asserzione stiano mettendo in dubbio. Ma la domanda che interessa me è:
quali sono gli elementi del cervello che permettono di pensarlo come fosse un computer?
3. Un’altra prerogativa stilistica di questi scritti è l’astio e a volte persino la noncuranza con cui le
domande fondamentali vengono evitate. Quali sono esattamente le funzioni anatomiche e
fisiologiche che vengono discusse a proposito del cervello? Cos’è esattamente un computer
digitale? E come dovrebbero connettersi fra loro le risposte a queste due domande? La procedura
comune in questi libri e articoli è quella di fare alcune osservazioni a proposito degli 0 e degli 1,
dare un riassunto della famosa tesi di Church e Turing e poi continuare elencando una serie di
argomenti interessanti quali conquiste e fallimenti nel mondo dei computer. Leggendo questi scritti
mi sono sorpreso nello scoprire che c’è un peculiare iato filosofico. Da un lato abbiamo un elegante
insieme di risultati matematici che vanno dal teorema di Turing e dalle tesi di Church fino alla
Teoria delle funzioni ricorsive. Dall’altro abbiamo un impressionante quantità di congegni
elettronici che utilizziamo quotidianamente. Dal momento che abbiamo una matematica così
avanzata e un’elettronica così efficace, supponiamo che in qualche modo qualcuno deve avere fatto
il lavoro filosofico basilare di collegare la matematica all’elettronica. Ma per quanto ne so, posso
dire che ciò non è accaduto. Al contrario, siamo in una situazione particolare dove c’è poco accordo
teorico tra i professionisti su domande fondamentali quali: Cos’è esattamente un computer digitale?
Cos’è esattamente un simbolo? Cos’è esattamente un processo computazionale? Sotto quali
condizioni fisiche esattamente i due sistemi stanno implementando lo stesso programma?

III. La definizione di computazione


Dal momento che non c’è un accordo universale sulle domande fondamentali, credo sia meglio
tornare indietro fino alle fonti, fino alle definizione originale data da Alan Turing. Secondo Turing,
una macchina di Turing può eseguire certe operazioni elementari: può riscrivere uno 0 sul suo
nastro come un 1, può riscrivere un 1 sul suo nastro come uno 0, può spostare il nastro di un passo a
sinistra o può spostare il nastro di un passo a destra. è controllata da un programma di istruzioni e
ogni istruzione specifica una condizione e un’azione da eseguire se la condizione è soddisfatta.
Questa è la definizione standard di computazione, ma, presa letteralmente, è almeno in parte
fuorviante. Se voi aprite il vostro computer di casa nella maggior parte dei casi è poco probabile che
troviate uno 0 o un 1 o un nastro. Ma non è questo in realtà il problema della definizione. Per
scoprire se un oggetto è realmente un computer digitale, risulta che noi non dobbiamo cercare
davvero uno 0 e un 1 ecc. Dobbiamo piuttosto cercare qualcosa che possiamo trattare, calcolare o
che possa essere usato come funzionante a 0 e 1. Inoltre, per rendere la questione più complessa,
c’è il fatto che questa macchina potrebbe essere fatta pressoché in qualsiasi modo. Come dice
Johnson-Laird, «Essa potrebbe essere costituita da ingranaggi e leve come un vecchio calcolatore
meccanico; potrebbe essere costituita da un sistema idraulico attraverso il quale scorre l’acqua;
potrebbe essere costituita da transistor posti in un microcircuito attraverso cui passa la corrente
elettrica; potrebbe essere eseguita anche dal cervello. Ognuna di queste macchine usa un diverso
mezzo per rappresentare i simboli binari. Le posizioni degli ingranaggi, la presenza o l’assenza di
acqua, la differenza di potenziale e forse gli impulsi nervosi» (Johnson-Laird, 1988, p. 39).
Osservazioni simili sono fatte dalla maggior parte delle persone che scrivono su questo argomento.
Per esempio, Ned Block (Block, 1990), mostra come possiamo avere cancelli elettrici in cui l’1 e lo
34
0 sono assegnati rispettivamente a differenze di potenziale di 4 volt e di 7 volt. Così potremmo
pensare che dobbiamo considerare i livelli di tensione. Ma Block dice che solo
«convenzionalmente»1 è assegnato a un certo livello di tensione. La situazione diviene più
sconcertante quando ci informa ulteriormente che non avremmo bisogno di usare l’elettricità, ma
avremmo potuto usare un complesso sistema di gatti e di topi e di formaggio e creare i nostri
cancelli in modo tale che il gatto starà in tensione al guinzaglio e aprirà tirando un cancello che
possiamo trattare come se fosse uno 0 o un 1. Il punto su cui Block insiste è «l’irrilevanza della
realizzazione dell’hardware per la descrizione computazionale. Questi cancelli lavorano in modi
diversi ma essi sono nondimeno computazionalmente equivalenti» (Ivi, p. 260). Nell stesso filone,
Phylyshyn dice che una sequenza computazionale può essere realizzata da «un gruppo di piccioni
addestrati a beccare come una macchina di Turing!» (Phylyshn, 1985, p. 57).
Ma se tentiamo di prendere in seria considerazione l’idea che il cervello sia un computer digitale,
otteniamo lo scomodo risultato di poter costruire un sistema che fa tutto quello che fa il cervello.
Parlando computazionalmente, da questo punto di vista, si potrebbe ottenere un «cervello» che
funzioni proprio come il mio o il vostro pur essendo costituito da cani, gatti e formaggio, dalle leve,
dalle tubature, dai piccioni o da qualunque altra cosa a condizione che i due sistemi siano,
nell’accezione di Block, «computazionalmente equivalenti». Servirebbe solo una terribile quantità
di gatti, piccioni, tubature o qualunque altra cosa. I sostenitori del cognitivismo riportano questo
risultato con autentico e manifesto piacere. Invece io penso che dovrebbero esserne preoccupati, e
proverò a mostrare che si tratta solo della punta di un intero iceberg di problemi.

IV. Prima difficoltà: la sintassi non è intrinseca alla fisica


Perché i sostenitori del computazionalismo non temono le implicazioni della realizzabilità multipla?
La risposta è che essi ritengono che sia tipico del valore funzionale che la stessa funzione ammetta
realizzazioni multiple. In tale prospettiva i computer sono come carburatori o termostati. Proprio
come i carburatori possono essere fatti di rame o di acciaio, allo stesso modo i computer possono
essere fatti con una serie indefinita di materiali.
Ma c’è una differenza: le classi dei carburatori e dei termostati sono definite in termini di
produzione di determinati effetti fisici. Questo è il motivo per cui, per esempio, nessuno dice che si
possono realizzare carburatori con dei piccioni. Ma la classe dei computer è definita sintatticamente
in termini di assegnazione di 0 e di 1. La realizzabilità multipla non è un conseguenza del fatto che
lo stesso effetto fisico può essere ottenuto con diverse sostanze fisiche, quanto del fatto che le
proprietà rilevanti sono puramente sintattiche. La costituzione fisica è irrilevante nella misura in cui
ammette l’assegnazione di 0 e di 1 e il passaggio di stato tra di loro.
Ma tale dato ha due conseguenze che potrebbero rivelarsi disastrose:
1. Lo stesso principio che implica la realizzabilità multipla sembrerebbe implicare anche la
realizzabilità universale. Se la computazione è definita in termini di assegnazione di sintassi allora
ogni cosa potrebbe essere un computer digitale, perché ogni oggetto può avere sue attribuzioni
sintattiche. Ogni cosa potrebbe essere descritta in termini di 0 e di 1.
2. Ancora peggio, la sintassi non è intrinseca alla fisica. L’attribuzione di proprietà sintattiche è
sempre relativa a un agente o osservatore che tratta determinati fenomeni fisici come sintattici.
Ora, perché queste conseguenze sarebbero disastrose?
Dunque, noi volevamo sapere come funziona il cervello, e in particolare come produce fenomeni
mentali. E dire che il cervello è un computer digitale come lo sono lo stomaco, il fegato, il cuore, il
sistema solare e lo stato del Kansas non servirebbe a rispondere alla domanda. Il modello che
avevamo era tale che noi avremmo scoperto qualcosa riguardo alle operazioni cerebrali in grado di
mostrarci che esso è un computer. Volevamo sapere se non ci fosse qualche senso in cui il cervello
fosse intrinsecamente un computer digitale, nello stesso modo in cui le foglie verdi intrinsecamente
svolgono la fotosintesi, o il cuore intrinsecamente pompa sangue. Non siamo noi che,
arbitrariamente o «convenzionalmente», assegniamo la parola «pompare» al cuore o «fotosintesi»
alle foglie: c’è un dato di fatto vero e proprio. E ciò che ci chiedevamo è: «Esiste un elemento del
35
cervello che lo rende un computer digitale?». Non è una risposta affermare che i cervelli sono
computer digitali perché ogni cosa è un computer digitale.
Sulla base della definizione standard di computazione: Per ogni oggetto esiste una descrizione di
quell’oggetto per cui in base a quella descrizione l’oggetto è un computer digitale. Per ogni
programma esiste un oggetto sufficientemente complesso tale che ci sia almeno una descrizione
dell’oggetto sulla base della quale l’oggetto implementa il programma. Così per esempio il muro
dietro di me sta implementando in questo preciso momento il programma «Wordstar», perché esiste
un modello di movimento delle molecole isomorfo rispetto alla struttura formale di «Wordstar». Ma
se il muro sta implementando «Wordstar» allora se è un muro abbastanza grande ne segue che sta
implementando qualsiasi programma e anche qualsiasi programma implementato nel cervello.
Penso che la principale ragione per cui i sostenitori del computazionalismo non considerano la
realizzabilità multipla o universale un problema è che non la vedono come una conseguenza di un
punto assai più centrale, cioè che «sintassi» non è il nome di una caratteristica fisica, come la massa
o la gravità. Al contrario parlano di «motori sintattici» e persino di «motori semantici» come se un
tale discorso fosse lo stesso dei motori a benzina o diesel, come se potesse essere soltanto una
questione fattuale che il cervello o qualsiasi altra cosa sia un motore sintattico.
Credo sia possibile, con buona probabilità, bloccare il risultato della realizzabilità universale
restringendo la nostra definizione di computazione. Di certo dovremmo rispettare il fatto che i
programmatori e gli ingegneri la considerano come un ghiribizzo delle definizioni originarie di
Turing e non come una reale caratteristica della computazione. Opere non pubblicate di Brian
Smith, Vinod Goel e John Batali suggeriscono che una definizione più realistica enfatizzerà alcune
caratteristiche come relazioni causali tra stati di programma, programmabilità e controllabilità del
meccanismo, localizzazione nel mondo reale. Ma queste ulteriori restrizioni sulla definizione di
computazione non ci aiutano in questa discussione perché il problema veramente centrale è che la
sintassi è essenzialmente una nozione relativa all’osservatore. La realizzabilità multipla di processi
computazionalmente equivalenti in differenti mezzi fisici era non solo un segno del fatto che i
processi erano astratti, ma anche del fatto che non erano affatto intrinseci al sistema. Essi
dipendevano da una interpretazione esterna. Stavamo cercando fatti che avrebbero reso i processi
cerebrali computazionali. Ma dato il modo in cui abbiamo definito la computazione non ci potranno
mai essere tali fatti. Non possiamo dire da un lato che è un computer digitale ogni oggetto cui
possiamo assegnare una sintassi e presupporre dall’altro che ci sia una questione di fatto intrinseca
alla sua operazione fisica che dipende dal fatto che un sistema naturale come il cervello sia o meno
un computer digitale.
E se la parola «sintassi» sembra enigmatica, lo stesso punto può essere raggiunto senza essa. Infatti
qualcuno potrebbe affermare che le nozioni di «sintassi» e «simboli» sono solo un modo di dire e
ciò che ci interessa veramente è l’esistenza di sistemi di fenomeni fisici discreti e gli stati di
transizione fra loro. In quest’ottica non abbiamo veramente bisogno di 0 e 1; sono solo dei
diminutivi di comodo. Ma credo che ciò non serva. Uno stato fisico di un sistema è uno stato
computazionale soltanto relativamente all’assegnazione a quello stato di un qualche ruolo
computazionale, funzione o interpretazione. Lo stesso problema affiora senza 0 e 1 perché nozioni
quali computazione, algoritmo e programma non danno il nome a caratteristiche intrinseche fisiche
dei sistemi. Gli stati computazionali non sono scoperti all’interno della fisica, ma assegnati alla
fisica.
Questo è un argomento diverso dall’Argomento della stanza cinese. L’Argomento della stanza
cinese ha mostrato che la semantica non è intrinseca alla sintassi. Io ora sto dimostrando il fatto
separato e differente che la sintassi non è intrinseca alla fisica. Ai fini della prima questione sto
semplicemente supponendo che la caratterizzazione sintattica del computer non fosse problematica.
Ma questo è un errore. Non c’è modo di scoprire che qualcosa è intrinsecamente un computer
digitale perché la caratterizzazione di esso come un computer digitale è sempre relativa a un
osservatore che assegna un’interpretazione sintattica alle pure caratteristiche fisiche del sistema.
Allo stesso modo, applicato all’ipotesi del «linguaggio del pensiero», ciò ha come conseguenza che

36
la tesi risulti incoerente. Non c’è modo di scoprire che ci sono, intrinsecamente, frasi sconosciute
nella mente perché qualcosa è una frase solo in relazione a un qualche agente o utente che la usa
come frase. Egualmente, applicata generalmente al modello computazionale, la caratterizzazione di
un processo come computazionale è una caratterizzazione di un sistema fisico dall’esterno; e
l’identificazione di un processo come computazionale non identifica una caratteristica intrinseca
della fisica ma è essenzialmente una caratterizzazione dipendente dall’osservatore.
Questo punto deve essere compreso esattamente. Non sto dicendo che ci siano dei limiti a priori sui
modelli che possiamo scoprire in natura. Potremmo senza dubbio scoprire un modello di eventi nel
mio cervello che sia isomorfo all’implementazione del programma «vi» su questo computer. Ma
dire che qualcosa sta funzionando come un processo computazionale è dire qualcosa di più che un
modello di eventi fisici sta avvenendo. Richiede l’assegnazione di una interpretazione
computazionale da parte di qualche agente. Analogamente, potremmo scoprire in natura oggetti che
abbiano all’incirca la stessa forma delle sedie e che potrebbero anche essere usati come sedie; ma
non potremmo scoprire oggetti in natura che funzionino come sedie se non relativamente ad alcuni
agenti che li considerano o li usano come sedie.

V. Seconda difficoltà: la fallacia dell’omuncolo è endemica nel cognitivismo


Così sembra di essere giunti a un problema. La sintassi non fa parte della fisica. Ciò porta al fatto
che se la computazione è definita in modo sintattico, allora niente è di per sé un computer digitale
solamente in virtù delle sue proprietà fisiche. C’è una strada che ci porti fuori da questo problema?
Sì, esiste, ed è una strada che viene generalmente adottata nella scienza cognitiva, ma con essa si
cade dalla padella alla brace. La maggior parte degli studi che ho visto sulla teoria computazionale
della mente riporta diverse varianti della fallacia dell’omuncolo. L’idea è sempre quella di trattare il
cervello come se ci fosse al suo interno un qualche agente che lo utilizza al fine di compiere un
calcolo. Un tipico caso è quello di David Marr (1982) che descrive la visione come un
procedimento che parte da una rete visiva bidimensionale sulla retina e arriva a una descrizione
tridimensionale del mondo esterno, come risultato del sistema visivo. La difficoltà è: chi sta
leggendo la descrizione? Infatti, nel libro di Marr e in altri studi simili sul tema, sembra quasi di
dover invocare un omuncolo all’interno del sistema che permetta di trattare queste operazioni come
genuinamente computazionali.
Molti scrittori ritengono che la fallacia dell’omuncolo non sia realmente un problema, perché,
dicendolo con Dennett (1978), costoro credono che l’omuncolo possa essere «scaricato». L’idea è
questa: visto che le operazioni computazionali del computer possono essere analizzate in unità che
sono progressivamente sempre più semplici, fino ad arrivare al semplice circuito bistabile,
configurazioni tipo «sì-no» o «1-0», sembrerebbe che gli omuncoli del livello più alto si scarichino
in omunculi progressivamente sempre più stupidi, fino ad arrivare al livello basilare di un semplice
circuito bistabile che non richiede nessun tipo di omuncolo. L’idea, in breve, è che una
scomposizione ricorsiva eliminerà gli omuncoli.
Mi ci è voluto molto tempo per comprendere a cosa queste persone stessero riferendosi, così in caso
qualcuno si senta sconcertato per lo stesso motivo, lo spiegherò in dettaglio con un esempio.
Supponiamo di avere un computer che moltiplichi sei volte otto per aver quarantotto. Ora ci si
chiede: «Come fa?». Bene, la risposta potrebbe essere che addiziona il numero sei a se stesso per
sette volte. Ma se ci si chiede: «Ma in che modo addiziona il numero sei a se stesso per sette
volte?», la risposta è che innanzitutto il computer converte tutti questi numeri in informazione
binaria e poi applica un semplice algoritmo per operare in sistema binario fino a che si arriva al
livello basilare nel quale le istruzioni sono nella forma: «Scrivi uno zero, cancella un uno». Così per
esempio al livello massimo il nostro omuncolo intelligente dice: «Io so come moltiplicare sei volte
otto per avere quarantotto». Ma al livello inferiore esso è rimpiazzato da un più stupido omuncolo
che dice: «Io non so attualmente come fare la moltiplicazione, ma posso fare l’addizione». Sotto ne
abbiamo di ancora più stupidi che dicono: «Non sappiamo come fare addizione e moltiplicazione,
ma sappiamo come convertire il sistema decimale in binario». Più in basso altri ancora più stupidi
37
dicono: «Non sappiamo niente in materia, ma sappiamo come si opera in simboli binari». Al livello
base c’è un gruppo compatto di omuncoli che dice solo: «Zero-uno, zero-uno». Tutti i livelli più alti
si riducono così a quello di base. Solamente il livello base però esiste realmente; i livelli superiori
consistono tutti solo in come-se.
Vari autori (Haugeland, 1981; Block, 1990) descrivono questa configurazione dicendo che il
sistema è un meccanismo sintattico che conduce a un meccanismo semantico. Ma dobbiamo ancora
affrontare il problema che avevamo prima: Quali fattori intrinseci al sistema lo rendono sintattico?
Quali fattori riguardanti il livello base od ogni altro livello fanno tali operazioni tra zero e uno?
Senza un omuncolo che si trova fuori dalla scomposizione ricorsiva, non possiamo avere ancora
una sintassi con cui operare. Il tentativo di eliminare la fallacia dell’omuncolo attraverso la
scomposizione ricorsiva è erroneo, perché l’unico modo per avere una sintassi intrinseca alla fisica
è porre l’omuncolo nella fisica.
C’è un aspetto affascinante riguardo a tutto ciò. I cognitivisti ammettono volentieri che i livelli più
alti della computazione, per esempio «moltiplica 6 volte 8», sono relativi all’osservatore; non c’è
nulla in essi che corrisponda direttamente alla moltiplicazione; tutto è nell’occhio
dell’omuncolo/osservatore. Ma essi non vogliono riconoscere tale proprietà ai livelli più bassi. Il
circuito elettronico, essi ammettono, non moltiplica davvero 6x8 come tale, esso nella realtà si serve
di «zeri» e «uni» e queste operazioni, per così dire, portano alla moltiplicazione. Ma ammettere che
i livelli più alti della computazione non sono intrinseci alle scienze naturali è già ammettere che
neppure i livelli più bassi lo sono. Ecco dunque che la fallacia dell’omuncolo è ancora con noi.
Per i computer del tipo che puoi comprare al negozio, non c’è problema di alcun omuncolo, ciascun
utente reale diventa l’omuncolo in questione. Ma se supponiamo che il cervello sia un computer
digitale, stiamo ancora di fronte alla domanda: «E chi è l’utente?». Tipiche domande da omuncolo
nelle scienze cognitive sono le seguenti: «Come calcola la forma dall’ombreggiatura un sistema
visivo? Come calcola la distanza di un oggetto dalla misura dell’immagine impressa nella retina?».
Una domanda parallela potrebbe essere: «Come calcolano i chiodi la distanza che percorrono
nell’asse dall’impatto del martello e dalla densità del legno?». E la risposta è la stessa in ambedue i
tipi di caso: se stiamo parlando di come il sistema lavora intrinsecamente né i chiodi né il sistema
visivo calcolano un bel niente. Noi, come gli omuncoli esterni, potremmo descriverli
computazionalmente ed è spesso utile far così. Ma non si comprenderebbe il meccanismo del
martellare col supporre che i chiodi stiano in qualche modo intrinsecamente calcolando gli algoritmi
del martellamento e non si capirebbe il meccanismo della visione col postulare che il sistema stia
calcolando, per esempio, la forma a partire dall’algoritmo dell’ombra che essa proietta.

VI. Terza difficoltà: la sintassi non ha poteri causali


Nelle scienze naturali alcuni tipi di spiegazioni precisano meccanismi la cui funzione causale nella
produzione di fenomeni resta da giustificare. Ciò è particolarmente diffuso nelle scienze biologiche.
Si pensi alla teoria dei germi patogeni, al caso della fotosintesi, alla teoria dei tratti ereditari basata
sul Dna e perfino alla teoria darwiniana della selezione naturale. In ciascun caso viene stabilito un
meccanismo causale e in ciascun caso tale specificazione dà una spiegazione dei risultati del
meccanismo. Ora se si torna indietro e si considera la Storia originaria appare chiaro che la
spiegazione promessa dal cognitivismo è di questo tipo. I meccanismi grazie ai quali i processi
mentali producono conoscenze si ipotizza siano computazionali e con lo specificare i programmi
avremo specificato le cause della cognizione. Un aspetto positivo di questo programma di ricerca,
spesso sottolineato, è che non abbiamo bisogno di conoscere i dettagli del funzionamento del
cervello per spiegare la cognizione. I processi cerebrali forniscono solo la macchina esecutrice dei
programmi cognitivi, ma il livello del programma è quello a cui le spiegazioni cognitive effettive
vengono date. Secondo la classificazione standard stabilita, per esempio, da Newell, ci sono tre
livelli di spiegazione: struttura, programma e intenzionalità (Newell chiama questo ultimo livello il
livello della conoscenza) e il contributo particolare delle scienze cognitive è reso al livello del
programma.
38
Ma se quanto ho sostenuto finora è corretto, allora c’è qualcosa di sospetto nell’intero progetto.
Finora ho pensato che, in quanto spiegazione causale, la teoria dei cognitivisti fosse quantomeno
falsa, ma ora sto avendo difficoltà perfino a formulare una versione che sia coerente con l’idea per
cui essa potrebbe essere una tesi empirica tout court. La tesi è che ci siano una gran quantità di
simboli che vengono manipolati nel cervello, «zeri» e «uni» che balenano attraverso il cervello alla
velocità della luce, invisibili non solo ad occhio nudo, ma perfino ai microscopi elettronici più
potenti e che sia ciò a causare la cognizione. Ma la difficoltà sta nel fatto che «zeri» ed «uni» non
hanno alcun potere causale poiché essi non esistono nemmeno se non negli occhi dell’osservatore.
Il programma implementato non ha altri poteri causali che quelli del mezzo che lo implementa
giacché il programma non ha esistenza reale, non una propria ontologia aldilà di quella che gli
conferisce il mezzo che lo implementa. Parlando in termini materiali non esiste qualcosa come un
«livello programma» autonomo.
Ciò lo si può capire tornando alla Storia originaria e ricordando la differenza che c’è tra il computer
meccanico e la macchina di Turing umana. Nella macchina di Turing umana c’è effettivamente un
livello programma intrinseco al sistema ed esso risulta funzionante in modo causale a quel livello
nel convertire input in output. Ciò avviene perché il soggetto umano sta seguendo in modo
consapevole le regole per compiere una determinata computazione, il che consente di spiegare in
modo causale la sua operazione. Ma quando programmiamo il computer meccanico affinché
compia la medesima computazione, l’assegnazione di una interpretazione computazionale è ora
relativa a noi, omuncoli esterni. E non c’è più un livello di causa intenzionale intrinseco al sistema.
Il computer umano segue consapevolmente delle regole, e questo spiega il suo comportamento, ma
il computer meccanico, alla lettera, non segue nessuna regola. è ideato per comportarsi esattamente
come se dovesse seguire delle regole, e solo questo è rilevante ai fini pratici o commerciali. Adesso
il cognitivismo ci rivela che il cervello funziona come un computer commerciale e questo causa la
cognizione. Ma senza un omuncolo, sia il computer commerciale che il cervello sono solo modelli e
i modelli non hanno capacità causali oltre quelle dei media che li implementano. Così sembra che
non ci sia un modo affinché il cognitivismo possa dare una spiegazione causale della cognizione.
Dal mio punto di vista tuttavia rimane aperto un rompicapo. Chiunque lavori con i computer sa,
anche casualmente, che spesso diamo spiegazioni causali che si richiamano al programma. Per
esempio, possiamo dire che quando batto questo tasto ottengo risultati simili, perché la macchina sta
eseguendo il software «vi» piuttosto che l’«emacs», il che appare come una spiegazione causale
ordinata. Così il rompicapo è il seguente: come conciliamo il fatto che la sintassi, come tale, non ha
capacità causali con il fatto che noi diamo spiegazioni causali che fanno appello ai programmi? E,
ancor più importante, questo tipo di spiegazioni forniranno un modello appropriato per il
cognitivismo? Salveranno il cognitivismo? Potremmo, per esempio, mantenere l’analogia con I
termostati, sottolineando che proprio come la nozione di «termostato» compare in spiegazioni
causali indipendentemente da alcun riferimento alla sua realizzazione fisica, così la nozione di
«programma» potrebbe essere esplicativa e altrettanto indipendente dalla fisica.
Per esaminare questo rompicapo tentiamo di fare il punto sul cognitivismo estendendo la Storia
originaria per mostrare in che modo le procedure investigative del cognitivista lavorano nella
ricerca quotidiana. L’idea che si ha in genere è di programmare un computer commerciale così che
simuli qualche capacità cognitiva, come la visione o il linguaggio. Poi, se otteniamo una buona
simulazione, una che ci dia almeno l’equivalenza di Turing, ipotizziamo che il computer cerebrale
faccia girare lo stesso programma del computer commerciale, e per testare l’ipotesi, cerchiamo
un’evidenza psicologica indiretta, come i tempi di reazione. Così sembra che possiamo spiegare
causalmente il comportamento del computer cerebrale citando il programma esattamente nello
stesso senso in cui possiamo spiegare il comportamento del computer commerciale. Ora, che cosa è
inesatto in tutto ciò? Non sembra forse un programma di ricerca scientifico perfettamente legittimo?
Sappiamo che la trasformazione del computer commerciale di input in output è spiegata da un
programma e nel cervello scopriamo lo stesso programma, perciò abbiamo una spiegazione causale.

39
Due cose dovrebbero preoccuparci immediatamente di questo programma. Primo, non
accetteremmo mai questo tipo di spiegazione per nessuna funzione cerebrale di cui abbiamo capito
il funzionamento a un livello neurobiologico. Secondo, non accetteremmo questo programma per
altri tipi di sistema che possiamo simulare computazionalmente. Per illustrare il primo punto,
riferiamoci per esempio al famoso resoconto What the Frog’s eye tells the Frogs Brain [Che cosa
dice l’occhio della rana al cervello della rana] (Lettvin et al., 1959 in McCulloch, 1965). Il
resoconto è dato interamente in termini dell’anatomia e della fisiologia del sistema nervoso di una
rana. Un tipico passo scelto a caso dice:
1. Rivelatori di contrasto sostenuto
Un assone non ricoperto di mielina di questo gruppo non risponde quando l’illuminazione generale
è accesa o spenta. Se il bordo netto di un oggetto, che sia più chiaro o più scuro dello sfondo, si
muove nel suo campo e si ferma, l’assone scarica prontamente e continua a scaricare, non importa
quale sia la forma del bordo né se l’oggetto sia più piccolo o più grande del campo recettivo» (Ivi,
p. 239).
Io non ho mai sentito nessuno dire che tutto questo fosse soltanto l’implementazione dell’hardware,
e che essi avrebbero dovuto soltanto individuare quale programma la rana stesse implementando. Io
non dubito che si possa trovare una simulazione al computer dei «rilevatori d’insetti» della rana.
Forse qualcuno l’ha fatto. Ma noi tutti sappiamo che una volta compreso come il sistema visivo di
una rana lavora realmente, il «livello computazionale» divenga irrilevante.
Per illustrare il secondo punto, consideriamo le simulazioni di altri tipi di sistemi. Io, per esempio,
sto digitando queste parole su una macchina che simula il comportamento di una desueta macchina
da scrivere meccanica. Mentre le simulazioni continuano, il programma di scrittura simula una
macchina da scrivere meglio di quanto ogni programma di Intelligenza artificiale che io conosco
possa simulare il cervello. Ma nessuna persona sana pensa: «Ormai è da molto tempo che sappiamo
come funzionano le macchine da scrivere; sono implementazioni dei programmi di scrittura».
Semplicemente, in generale le simulazioni computazionali non forniscono spiegazioni causali dei
fenomeni simulati.
Allora cosa ne consegue? Noi, in generale, non supponiamo che le simulazioni dei processi
cerebrali ci diano una qualche spiegazione causale in sostituzione o in aggiunta a un resoconto
neurobiologico che spieghi come il cervello funziona realmente. E, in generale, non prendiamo in
considerazione la frase «X è una simulazione computazionale di Y» per nominare una relazione
simmetrica. Cioè, non supponiamo che poiché il computer simula una macchina da scrivere, allora
la macchina da scrivere simula un computer. Non supponiamo che poiché un programma di
previsione del tempo simula un uragano allora la spiegazione causale del comportamento dell’
uragano sia fornita dal programma. Ma allora perché dovremmo fare un’eccezione a questi principi
quando si tratta di processi cerebrali sconosciuti? Ci sono delle buone ragioni per fare
un’eccezione? E che tipo di spiegazione causale è una spiegazione che cita un programma formale?
Qui, credo, ci sia la soluzione al nostro puzzle. Una volta tolto l’omuncolo dal sistema, si rimane
soli con una configurazione di eventi a cui qualcuno dall’esterno può attribuire un’interpretazione
computazionale. Ora l’unico senso nel quale la specificazione della configurazione si fornisce da
sola di una spiegazione causale è che se si sa che una certa configurazione esiste in un sistema
allora si sa anche che c’è una causa dello schema. Si possono quindi, per esempio, predire fasi
successive da fasi precedenti. Inoltre, se si sa già che il sistema è stato programmato da un
omuncolo esterno, si possono fornire spiegazioni che fanno riferimento all’intenzionalità degli
omuncoli. Si può dire, per esempio, questa macchina sta facendo quel che deve perché sta
eseguendo il programma «vi». è come spiegare che questo libro inizia con un brano che riguarda
famiglie felici e non contiene alcun lungo brano che tratta di un gruppo di fratelli, perché è il libro
di Tolstoj Anna Karenina non I fratelli Karamazov di Dostoevskij. Ma non si può spiegare un
sistema fisico come una macchina da scrivere o un cervello identificando una configurazione che ce
lo mostra con la sua simulazione computazionale, perché l’esistenza della configurazione non ci
spiega in che modo il sistema lavora realmente in quanto sistema fisico. Nel caso della cognizione

40
la configurazione è a un livello troppo elevato di astrazione per spiegare eventi mentali concreti (e
perciò fisici) quali una percezione visiva o la comprensione di una frase.
Ora, penso sia ovvio che non possiamo spiegare come funzionano una macchina da scrivere o degli
uragani individuando delle configurazioni formali che condividono con le loro simulazioni
computazionali. Perché non è ovvio nel caso del cervello?
Così arriviamo alla seconda parte della nostra soluzione del rompicapo. Facendo il punto sul
cognitivismo stavamo supponendo tacitamente che il cervello potesse implementare algoritmi per la
cognizione nello stesso senso in cui il computer umano di Turing e il suo computer meccanico
implementano algoritmi. Ma è precisamente questa assunzione che abbiamo visto essere erronea.
Per rendercene conto chiedamoci cosa succede quando un sistema implementa un algoritmo. Nel
computer umano il sistema svolge consapevolmente i passi dell’algoritmo, quindi il processo è sia
causale che logico; logico perché l’algoritmo fornisce un insieme di regole per far derivare i simboli
dell’output dai simboli dell’input; causale, perché l’agente sta facendo uno sforzo cosciente per
svolgere i passi dell’algoritmo. Similmente, nel caso del computer meccanico l’intero sistema
include un omuncolo esterno, e con l’omuncolo il sistema è sia causale che logico. Logico perché
l’omuncolo fornisce un’interpretazione al sistema della macchina, e causale perché l’hardware della
macchina lo causa per avanzare nel processo. Ma tali condizioni non possono essere mescolate con
le operazioni neurofisiologiche cerebrali che sono brute, cieche e inconsce. Nel computer cerebrale
non c’è un’implementazione intenzionale e conscia dell’algoritmo come invece avviene nel
computer umano, ma non ci può essere nessuna implementazione inconscia come avviene invece
nel computer meccanico perché ciò richiederebbe un omuncolo esterno per associare
un’interpretazione computazionale a degli eventi fisici. Il massimo che possiamo fare è ritrovare nel
cervello una configurazione di eventi che sia formalmente simile al programma implementato dal
computer meccanico, ma la configurazione da sola non ha la capacità di nominarsi da sola né,
quindi, di spiegare nulla.
Insomma, il fatto che l’attribuzione di sintassi non individui alcun potere causale risulta fatale
all’esigenza del programma di fornire una spiegazione causale della cognizione. Per analizzare le
conseguenze di ciò, ricordiamoci di come appaiono in realtà le spiegazioni dei cognitivisti.
Spiegazioni come quella di Chomsky della sintassi dei linguaggi naturali o quella di Marr del
processo visivo funzionano stabilendo un insieme di regole seguendo le quali un input simbolico si
trasforma in un output simbolico. Nel caso di Chomsky, per esempio, un singolo simbolo input, S,
viene trasformato in uno qualsiasi dei potenziali numeri infiniti di frasi mediante l’applicazione
ripetuta di un insieme di regole sintattiche. Nel caso di Marr, le rappresentazioni di vettore visivo
bidimensionale vengono trasformate in «descrizioni» tridimensionali del mondo seguendo alcuni
algoritmi. La distinzione tripartita di Marr tra compito computazionale, soluzione algoritmica del
compito e implementazione hardware dell’algoritmo, è diventata famosa (con il nome di distinzione
di Newell) come un’asserzione del modello generale della spiegazione.
Se queste spiegazioni vengono considerate ingenuamente, come faccio io, è meglio pensarle come
se fosse soltanto un uomo solo in una stanza che procede attraverso una serie di passi seguendo
delle regole al fine di formare frasi in inglese o descrizioni tridimensionali, secondo il caso. Ma ora
chiediamoci quali eventi del mondo reale si suppone corrispondano a queste spiegazioni come
fossero applicate al cervello. Nel caso di Chomsky, per esempio, non siamo tenuti a pensare che
l’agente consciamente attraversi una serie di ripetute applicazioni di regole; e neppure siamo tenuti
a pensare che sta percorrendo la sua strada inconsciamente attraverso una serie di regole. Piuttosto
le regole sono «computazionali» e il cervello esegue le computazioni. Ma cosa significa ciò? Beh,
ci si aspetta da noi che pensiamo non sia nulla di diverso da un computer commerciale.
Quell’oggetto che corrisponde all’attribuzione a un computer commerciale da parte di un certo
insieme di regole lo si ritiene corrispondere all’attribuzione al cervello da parte di quelle stesse
regole. Ma abbiamo visto che nel computer commerciale l’attribuzione è sempre relativa
all’osservatore, l’attribuzione è relativa a un omuncolo che assegna interpretazioni computazionali
agli stati dell’hardware. Senza l’omuncolo non c’è computazione, ma solo un circuito elettronico.

41
Ma allora come facciamo ad avere computazione nel cervello senza un omuncolo? Per quanto ne so
né Chomsky né Marr hanno mai sollevato la questione né pensato che si potesse dare una simile
questione. Ma senza un omuncolo non c’è un potere esplicativo alla postulazione delle condizioni
del programma. C’è solo un meccanismo fisico, il cervello, con i suoi reali livelli causali di
descrizione fisici e fisico/mentali.

VII. Quarta difficoltà: il cervello non elabora informazioni


In questa sezione tratto finalmente ciò che penso sia, per alcuni versi, la questione centrale di tutto il
discorso, la questione dell’elaborazione delle informazioni. Molti di coloro che si situano nel
paradigma scientifico della «scienza cognitiva» riterranno buona parte della mia discussione
semplicemente irrilevante e argomenteranno contro di essa come segue:
«C’è una differenza tra il cervello e tutti questi altri sistemi che hai descritto finora, e questa
differenza spiega perché una simulazione computazionale nel caso degli altri sistemi sia una mera
simulazione mentre nel caso del cervello duplica effettivamente le proprietà funzionali del cervello,
e non le modellizza solamente. La ragione è che il cervello, diversamente da questi altri sistemi, è
un sistema che elabora informazioni. E questa caratteristica del cervello è, secondo le tue parole,
«intrinseca». è un dato di fatto della biologia che le funzioni cerebrali svolgano il processo
informativo, e dal momento che possiamo anche processare le stesse informazioni
computazionalmente, i modelli computazionali dei processi cerebrali hanno un ruolo del tutto
differente da quello dei modelli computazionali del tempo, per esempio».
Ecco allora una ben definita questione della ricerca: «Le procedure computazionali con cui il
cervello elabora l’informazione sono le stesse procedure con cui i computer elaborano la medesima
informazione?».
Quanto ho appena immaginato che un oppositore dicesse rappresenta uno dei peggiori errori della
scienza cognitiva. L’errore è di presupporre che i cervelli elaborino informazioni nello stesso modo
in cui i computer sono usati per elaborare informazioni. Per vedere che è un errore confrontiamo
quel che accade in un computer con quel che accade in un cervello. Nel caso del computer, un
agente esterno codifica delle informazioni in una forma tale da poter essere processata dai circuiti di
un computer. Ovvero, lui o lei mettono a punto una realizzazione sintattica dell’informazione che il
computer può implementare, per esempio, in differenti livelli di voltaggio. Il computer, quindi,
attraversa una serie di passaggi elettrici che l’agente esterno può interpretare sia sintatticamente che
semanticamente, anche se, ovviamente, l’hardware non ha sintassi o semantica intrinseche: è tutto
nell’occhio dell’osservatore. E la fisica non ha importanza, a condizione che si possa arrivare ad
essa per implementare l’algoritmo. Infine, l’output viene prodotto nella forma di un fenomeno fisico
che un osservatore può interpretare come simbolo con una sintassi e una semantica.
Confrontiamo quanto sopra con il cervello. Nel caso del cervello nessuno dei processi
neurobiologici principali sono relativi all’osservatore (sebbene, ovviamente, possano essere descritti
dal punto di vista di un osservatore, come ogni altra cosa) e la specificità della neurofisiologia conta
moltissimo. Per chiarire tale differenza facciamo un esempio. Supponete che io veda una macchina
venire verso di me. Un modello computazionale standard della visione prenderà l’informazione
dalla mia retina e infine emetterà la frase: «C’è una macchina che viene verso di me». Tuttavia non
è questo ciò che accade nella realtà biologica. In biologia una serie concreta e determinata di
reazioni elettrochimiche vengono prodotte dall’arrivo dei fotoni sulle cellule fotorecettrici della mia
retina, e l’intero processo si risolve alla fine in un’esperienza visiva concreta. La realtà biologica
non è quella di un mucchio di parole o simboli prodotti dal sistema visivo quanto piuttosto un
evento visivo cosciente, determinato e concreto; questa è la vera esperienza visiva. Ora, l’evento
visivo concreto è determinato e concreto quanto lo è un uragano o la digestione di un pasto. Noi
possiamo, con il computer, creare un modello di elaborazione dell’informazione di quell’evento o
della sua produzione, così come possiamo creare un modello per il tempo, per la digestione o per
qualunque altro fenomeno, ma i fenomeni di per se stessi non sono sistemi di elaborazione
dell’informazione.
42
In breve, l’elaborazione dell’informazione nel senso usato nelle scienze cognitive è un concetto con
un livello di astrazione troppo elevato per catturare la concreta realtà biologica dell’intenzionalità
intrinseca. L’«informazione» nel cervello è sempre relativa a una qualche modalità. è specifica per
il pensiero, per la visione, l’udito o il tatto, per esempio. Il livello di elaborazione dell’informazione
quale è descritto nel modello computazionale della cognizione delle scienze cognitive, d’altra parte,
è semplicemente il fatto di ricevere un insieme di simboli come output in risposta a un insieme di
simboli immessi come input.
Noi siamo impossibilitati a cogliere questa differenza per il fatto che la stessa frase, «Vedo una
macchina venire verso di me», può essere usata per registrare sia l’intenzionalità della visione che
l’output del modello computazionale della visione. Ma ciò non dovrebbe impedirci di vedere che
l’esperienza visiva è un evento concreto ed è prodotto nel cervello da determinati processi biologici
ed elettrochimici. Confondere tali eventi e processi con la manipolazione di simboli formali
equivale a confondere la realtà con il suo modello. Il punto centrale di questa parte del discorso è
che usando il termine «informazione» nell’accezione usata nelle scienze cognitive è semplicemente
falso dire che il cervello è un dispositivo per elaborare informazioni.

VIII. Indice della discussione


Questa breve discussione ha una semplice struttura logica che ora vado ad esporre:
Nella definizione standard, la computazione è definita sintatticamente in termini di manipolazione
di simboli.
Ma sintassi e simboli non sono definiti in termini di fisica. Sebbene le occorrenze dei simboli siano
sempre occorrenze fisiche, «simbolo» e «stesso simbolo» non sono definiti in termini fisici. In
breve, la sintassi non è connessa intrinsecamente alla fisica.
La conseguenza di ciò è che la computazione non è stata scoperta con la fisica ma ad essa è stata
attribuita. Alcuni fenomeni fisici sono attribuiti o usati o programmati o interpretati sintatticamente.
La sintassi e i simboli sono relativi all’osservatore.
Ne consegue che non è possibile «scoprire» che il cervello o qualsiasi altra cosa sia intrinsecamente
un computer digitale, sebbene sia possibile attribuirgli un’interpretazione computazionale così
com’è possibile per qualsiasi altra cosa. La questione non è che l’affermazione: «Il cervello è un
computer digitale» sia falsa, ma piuttosto che non raggiunga un livello di falsità. Non ha un senso
chiaro. Il mio discorso sarà mal interpretato se si crede che io stia argomentando sul fatto che sia
semplicemente falso che il cervello sia un computer digitale. La domanda «Il cervello è un
computer digitale?» è mal posta come le domande «è un abaco?», «è un libro?», «è un insieme di
simboli?» o «è un insieme di formule matematiche?».
Alcuni sistemi fisici facilitano l’uso computazionale molto meglio di altri. Per questo noi li
costruiamo, li programmiamo e li usiamo. In tali casi noi siamo l’omuncolo nel sistema che
interpreta i fenomeni fisici sia in termini sintattici che semantici.
Ma le spiegazioni causali che diamo non citano proprietà causali diverse da quelle fisiche
dell’implementazione e dell’intenzionalità dell’omuncolo.
La via d’uscita standard, sebbene tacita, è di affidarsi alla fallacia dell’omuncolo. La fallacia
dell’omuncolo è endemica ai modelli computazionali di cognizione e non può essere rimossa dagli
argomenti di scomposizione ricorsiva standard. Questi ultimi affrontano una questione diversa.
Non possiamo evitare i risultati precedenti supponendo che il cervello «elabori informazioni». Il
cervello, per quanto riguarda le operazioni intrinseche, non elabora informazioni. è un organo
biologico specifico e i suoi processi neurobiologici specifici producono forme specifiche di
intenzionalità. Nel cervello, intrinsecamente, avvengono processi neurobiologici e qualche volta
questi producono consapevolezza. Ma qui finisce la storia.

43
L'uno e il molteplice
Il fenomeno della diffrazione è estremamente significativo per quanto riguarda le leggi che
governano il comportamento della materia. Una sola fenditura produce una immagine
indifferenziata mentre due fenditure generano una immagine differenziata, la figura di interferenza,
lo spettro a righe caratteristico. Il passaggio dall'uno al molteplice non avviene in maniera caotica
ma risulta soggetto a leggi che intrinsecamente governano il fenomeno fisico a livello statistico. La
suddivisione dell'unità in una molteplicità implica la creazione di una relazione tra le varie
componenti, tale relazione si presenta come principio ordinatore rispetto al caos preesistente. L'uno
non presuppone null'altro che sé stesso. Nell'unità si realizza la totalità dell'essere. Nel momento in
cui l'uno si suddivide nel molteplice subentra la varietà dell'essere, ciascuna parte è libera di esistere
in maniera indipendente dal tutto. Eppure la natura ci mostra come si mantenga una correlazione tra
le varie parti, correlazione soggetta a leggi statistiche. Il comportamento della materia a livello sub-
atomico indica come le possibilità di movimento delle singole particelle sia soggetta oltre che a
forze fisiche anche a leggi matematiche che ne governano il comportamento a livello statistico.
Sembrerebbe che le particelle siano in relazione scambievole tra loro e siano influenzate
reciprocamente. L'equazione matematica che descrive il comportamento statistico delle particelle
sembra trascendere le interazioni fisiche tra le particelle stesse e nondimeno predice con precisione
l'evolversi dell'intero sistema. La stabilità della materia si basa sul comportamento complessivo di
una molteplicità di particelle in moto caotico. Tale comportamento complessivo rivela una unita' di
struttura che ha validità solo statisticamente e si produce a partire da un notevolissimo numero di
comportamenti caotici individuali. L'esistenza di una tale legge generale di comportamento
richiama alla memoria la legge dei grandi numeri, ma per la propria specificità non sembra
plausibile che ad essa possa ricondursi completamente. Intuitivamente saremmo propensi a pensare
ad un principio di correlazione tra le diverse parti che ricostituisca l'omogeneità del tutto originario,
in altri termini il molteplice che ritorna nell'unità: tutto è uno. Due orologi che forniscono la stessa
ora non sono correlati da interazioni fisiche ma il sincronismo deriva dalla struttura comune ed ha
origine nello stato complessivo iniziale. Allo stesso modo le leggi matematiche di correlazione
statistica dei singoli eventi fisicamente separati conserva l'unità complessiva dell'intero sistema. Le
particelle sono coordinate non da uno scambio fisico di informazione ma piuttosto dalla propria
intrinseca natura. In effetti l'esistenza di una tale legge matematica, che suggerisce una
corrispondente proprietà fisica della materia, risulta essere una sorpresa non facilmente spiegabile
dall'intelletto in termini di interazioni soggette al principio di causa ed effetto.

Definire cosa sia l'informazione pura è estremamente difficoltoso.


In particolare siamo talmente abituati a dare un significato all'informazione che spesso
dimentichiamo che è la nostra mente ad attribuire un significato ai messaggi che riceviamo
continuamente.
Dal punto di vista di una particella materiale le cose stanno molto diversamente.
Comunque possiamo tentare di definire l'informazione come una correlazione fra due stati
materialmente possibili.
In particolare se disponiamo di due rappresentazioni collegate tramite un canale di trasmissione
possiamo definire l'informazione come una correlazione fra elementi nelle rispettive
rappresentazioni.
Questa definizione funziona molto bene quando cerchiamo di capire cosa succede quando due
persone si scambiano informazione.
Nella meccanica quantistica la funzione d'onda contiene la correlazione fra le possibili misurazioni
fisiche.

44
Gli stati possibili descritti dalla funzione d'onda sono quindi in relazione reciproca in maniera
istantanea anche se non siamo in presenza di alcun segnale scambiato.
Possiamo quindi ipotizzare che l'informazione, intesa come correlazione tra stati, possa essere
trasmessa senza scambio di messaggi specifici, in particolare senza l'utilizzo di energia.
Nell'esperimento EPR due particelle correlate si influenzano reciprocamente.
L'esperimento EPR è un fenomeno non razionalizzabile caratteristico delle dinamiche della
meccanica quantistica, per cui azioni tra luoghi distanti - che normalmente avvengono in tempi e
spazi diversi - avvengono invece nello stesso tempo e conspazialmente. Questo fenomeno è
presentato dai quanti, da protoni o altre particelle, da elettroni, da interi atomi, da parti di molecole
aventi due possibili stati morfologici (ad esempio, le proteine neuroniche "tubulina alfa" e "tubulina
beta", che differiscono solo per l'orientamento spaziale di parte della molecola), i quali talvolta
vengono emessi e/o si presentano in modo correlato ("entangled"). Il modo correlato consiste in uno
"stato di sovrapposizione" che attribuisce contemporaneamente, ai vari enti sopraelencati, proprietà
normalmente antagoniste, quali ad es. velocità in due o più diverse direzioni, spin (rotazione)
destrorsa e sinistrorsa, orientamenti spaziali in direzioni diverse, proprietà corpuscolari
spazialmente definite che si trasformano in onde di materia stazionarie e fluttuanti con continuità
(elettroni nelle proprie orbite atomiche o nei circuiti superconduttori). Ciò fu intuito (e rifiutato) dai
fisici Einstein, Podolsky, Rosen (le esperienze compiute, che indicavano questo comportamento
furono da allora dette "EPR", dalle iniziali dei loro cognomi). Al contrario, Niels Bohr affermò:
"...anche se due fotoni (correlati) si trovassero su due diverse galassie, continuerebbero a rimanere
pur sempre un unico ente, e l'azione compiuta su uno di essi avrebbe effetti istantanei anche
sull'altro...". La disputa terminò nel 1982, con gli esperimenti di Alain Aspect che dimostrarono
inconfutabilmente la giustezza delle suelencate proprietà della meccanica quantistica.
Le equazioni della meccanica quantistica descrivono dunque una correlazione istantanea tra le
particelle, questa correlazione contiene informazione.
Una particella conosce lo stato dell'altra istantaneamente.
Questa interazione reciproca viola il principio di località come è stato più volte osservato.
In particolare le particelle non sono separabili nonostante la distanza che le separa, continuano a
comportarsi in maniera olistica, come un tutto unico, e sono descritte dalla meccanica quantistica in
maniera unitaria.
Sembrerebbe quindi che l'informazione debba propagarsi a velocità infinita senza utilizzo di
energia.
L'informazione contenuta nella funzione d'onda rappresenta la probabilità che si verifichi una
determinata misurazione e questa informazione è perfettamente comprensibile all'intelletto umano,
in particolare ci consente di prevedere (statisticamente) quali saranno le nostre misurazioni.
Ma questa informazione potrebbe anche essere una componente reale caratterizzante gli stati fisici,
in particolare potrebbe essere una proprietà dotata di senso per la natura.
Così come il campo gravitazionale trasporta l'informazione che da origine all'attrazione tra corpi
materiali, la correlazione contenuta nella funzione d'onda descritta matematicamente determina il
comportamento delle particelle elementari.

La tecnologia della microfabbricazione e lo sviluppo dei materiali per la microelettronica hanno


portato e continueranno a portare ad un livello progressivo di miniaturizzazione impressionante,
esponenziale, dei componenti elettronici dei calcolatori.
Gli effetti quantistici non possono non essere tenuti in considerazione se si vuole garantire un
corretto funzionamento dei microchips, quando questi vengono utilizzati in dispositivi per
manipolare informazione.
Questa considerazione, anche se essa non è stata dominante nel processo che ha portato alla nascita
della informazione e della computazione quantistica, certamente gioca un ruolo importante nel
giustificare l'enorme interesse che questa ha suscitato non solo a livello scientifico, ma anche nel
mondo delle imprese a tecnologia avanzata basate su tecnologie informatiche.

45
Tuttavia, la computazione quantistica, che combina quelle che sono due fra le maggiori rivoluzioni
scientifiche del XX° secolo, vale a dire la meccanica quantistica e la scienza dell'informazione è
ben altro.
Oltre all'energia c'è un'altra proprietà della fisica, a prima vista molto più astratta che si direbbe
appartenere piuttosto all'ambito della metafisica, che ha validità universale, cioè si può esprimere in
maniere totalmente differenti l'una dall'altra, indipendenti dal supporto fisico: l'informazione.
Come le osservabili della fisica, l'informazione deve essere contenuta in oggetti che possono essere
del tutto diversi, le parole pronunciate sono convogliate dalle variazioni di pressione dell'aria, quelle
scritte dalla disposizione delle molecole di inchiostro sulla carta, perfino i pensieri corrispondono a
particolari configurazioni dei neuroni, e soprattutto, come per le osservabili della fisica,
l'informazione viene lasciata immutata da certe trasformazioni.
L'informazione si comporta in un qualche modo come una grandezza fisica, che può essere
conservata, trasformata, misurata e dissipata.
Oggigiorno tutti conosciamo il computer come eccellente elaboratore di informazioni. La facilità
con cui l'informazione può essere manipolata automaticamente nasce proprio dalla universalità, dal
fatto che essa può essere espressa in maniere diverse senza perdere la sua natura essenziale e che,
come accade nella fisica, anche le trasformazioni più complesse si possono realizzare con tante
operazioni semplici.
Non c'è informazione senza un portatore fisico, ma per converso, l'informazione è essenzialmente
indipendente da come essa è espressa fisicamente e può essere liberamente trasferita da una forma
ad un'altra: è questo che fa dell'informazione un candidato naturale ad un ruolo fondamentale nella
fisica, esattamente come energia e quantità di moto.
Storicamente gran parte della fisica di base ha avuto a che fare con il compito di scoprire i
costituenti fondamentali della materia e le leggi che descrivono e governano le loro interazioni e la
loro dinamica. Ora comincia ad emergere come ugualmente importante e fondamentale il
programma di scoprire in quali modi la natura permetta o proibisca che l'informazione venga
espressa, immagazzinata, manipolata e trasmessa.
L'ambizioso programma di riconsiderare i principi fondamentali della fisica dal punto di vista della
teoria della informazione è ancora nella sua infanzia, tuttavia promette di dare frutti importanti: i
concetti e i metodi della informazione e della computazione quantistica sono i primi fra questi.
Dai tempi di Turing essenzialmente nessun cambiamento sostanziale ha avuto luogo nell'idea di che
cosa sia e come operi un computer, fino a che la meccanica quantistica non ha aperto la possibilità
di un cambiamento di paradigma.
La meccanica quantistica è una struttura matematica per descrivere la natura che, almeno in linea di
principio, include qualsiasi sistema fisico, essa ci confronta con uno schema fatto di paradigmi ben
diversi dal suo corrispondente classico: variabili dinamiche associate ad operatori che agiscono in
uno spazio degli stati in cui i vettori possono avere infinite componenti complesse, le funzioni
d'onda, solo con una sequenza di difficili reinterpretazioni del concetto di misura e del significato
delle proprietà spettrali di tali operatori si possono mettere in relazione le analoghe variabili
classiche.
È interessante notare come la proprietà della teoria quantistica più rilevante ai fini della
applicazione alla informazione e alla computazione non sono tanto nei dettagli delle equazioni del
moto e della dinamica che esse generano, quanto proprio nel fatto che lo stato del sistema sia
descritto da vettori di stato in uno spazio di Hilbert. Essa ci insegna infatti che la quantizzazione di
un sistema fisico classico con N gradi di libertà genera un sistema quantistico il cui spazio degli
stati ha un volume che cresce esponenzialmente con N e dunque si presta ad una complessità
combinatoria di strutture dinamiche possibili enormemente grande.
Le proprietà che rendono le varie operazioni di manipolazione quantistica della informazione
(immagazzinamento, trasferimento, acquisizione, modificazione, lettura) così radicalmente
differenti dalle loro analoghe classiche, sono proprio quelle proprietà quantistiche che non hanno un
corrispondente classico.

46
L'informazione classica è abitualmente codificata in stringhe di bit completamente misurabili ad
ogni passo del processo di calcolo, al contrario l'informazione quantistica è immagazzinata in stati
quantistici. La struttura dello spazio di tali stati è tale che questi risultano essere genericamente la
sovrapposizione complessa di tutte le sequenze possibili di bit, ciascuna con una sua probabilità di
essere individuata da una operazione di misura.
L'evoluzione quantistica si rappresenta semplicemente scrivendo la soluzione della equazione di
Schrödinger.
Gli ingredienti che la fisica quantistica ci fornisce per realizzare il calcolo quantistico sono:
i. la sovrapponibilità degli stati: un computer quantistico può stare in qualsiasi combinazione
di tutti i possibili stati di uno classico. I coefficienti di tali combinazioni sono numeri
complessi, caratterizzati in quanto tali da un modulo e da una fase.
ii. L'interferenza: essenziale ai fini del calcolo, perché è grazie ad essa che gli stati coesistenti
si possono fare interferire, costruttivamente o distruttivamente manipolando le loro fasi
relative. Un computer quantistico universale ha un numero infinito di stati computazionali e
il processo di calcolo si può pensare come una infinità di percorsi in ciascuno dei quali tutti
gli stati possibili evolvono in parallelo. Sono le fasi di questi stati lungo i vari percorsi che
interferendo danno luogo ad un unico ben definito output.
iii. L'entanglement (intreccio): è una delle proprietà caratteristiche della natura quantistica di un
sistema fisico a più componenti. Essa comporta che si possano costruire stati quantistici ben
definiti di sistemi composti i quali non corrispondono a stati ben definiti delle loro parti
costituenti.
iv. L'indeterminazione: è proprietà anch'essa caratteristica (negativa) che fa sì che uno stato non
noto non possa essere clonato senza essere irreversibilmente disturbato dal processo. Il
principio di indeterminazione ci dice che le osservabili dette coniugate hanno la strana
proprietà che non è possibile conoscerne il valore esatto nello stesso stato per entrambe.
L'idea che si possa immagazzinare informazione negli stati microscopici è per i fisici una sfida
senza precedenti, in quanto apre la prospettiva di usare la materia stessa nella sua struttura
fondamentale per fare calcolo. La possibilità della realizzazione di questo programma è tanto
affascinante quanto ardua.
Gli effetti di interferenza che permettono agli algoritmi quantistici di funzionare rendono tali
algoritmi anche molto fragili.
La computazione quantistica mira a realizzare schemi computazionali esponenzialmente più
efficienti dei corrispondenti classici proprio grazie alle proprietà caratteristiche della fisica
quantistica.

47
Intelligenza artificiale
Gli scienziati dicono di avere già imparato molte cose sul modo in cui il cervello elabora le
informazioni che riceve dai cinque sensi. Prendete, ad esempio, il modo in cui elabora gli stimoli
visivi.
Gli occhi della mente
La luce raggiunge gli occhi e colpisce la retina, una struttura formata da tre strati di cellule che si
trova sul fondo del bulbo oculare. La luce penetra fino al terzo strato. Qui si trovano cellule dette
bastoncelli, che sono sensibili alle variazioni di luminosità, e coni, che reagiscono a luce di diverse
lunghezze d'onda corrispondenti ai colori rosso, verde e blu. La luce scolora il pigmento presente in
queste cellule. Questo genera un segnale che viene trasmesso alle cellule del secondo strato e da
queste ad altre cellule ancora nello strato più esterno. Gli assoni di queste cellule si uniscono per
formare il nervo ottico.
I milioni di neuroni del nervo ottico arrivano a una regione del cervello nota come chiasma ottico.
Qui i neuroni che portano i segnali provenienti dalla parte sinistra della retina di ciascun occhio si
incontrano e proseguono paralleli fino alla parte sinistra del cervello. Analogamente, i segnali
provenienti dalla parte destra di ciascuna retina si uniscono e viaggiano verso la parte destra. Gli
impulsi arrivano poi a un "ripetitore" situato nel talamo, e da li i neuroni successivi li trasmettono a
una zona nella parte posteriore del cervello nota come corteccia visiva.
Elementi diversi dell'informazione visiva viaggiano su strade parallele. I ricercatori sanno ora che la
corteccia visiva primaria, insieme a un'area vicina, funge un po' da "ufficio postale" in quanto
seleziona, smista e integra le molte informazioni portate dai neuroni. Una terza area percepisce i
contorni, ad esempio i margini di un oggetto, e i movimenti. Una quarta area riconosce sia la forma
che il colore, mentre una quinta aggiorna di continuo mappe di dati visivi per seguire i movimenti.
Le ricerche attuali fanno pensare che ci siano ben 30 aree cerebrali diverse che elaborano le
informazioni visive raccolte dagli occhi! Ma in che modo queste aree collaborano per dar vita a
un'immagine? Sì, come fa la mente a "vedere"?
"Vedere" con il cervello
L'occhio raccoglie informazioni per il cervello, ma è evidentemente la corteccia a elaborare le
informazioni che il cervello riceve. Se scattate una foto. questa rivelerà particolari dell'intera scena.
Se invece guardate la stessa scena con gli occhi, osservate consapevolmente solo quella parte su cui
fissate l'attenzione. In che modo il cervello faccia questo rimane un mistero. C'è chi ritiene che
questo sia il risultato di un'integrazione progressiva dell'informazione visiva in cosiddette "aree di
convergenza", che permettono di paragonare ciò che si vede con ciò che si conosce già. Altri
suggeriscono che quando non si vede qualcosa di evidente, è semplicemente perché i neuroni che
controllano la visione cosciente non producono impulsi.
Comunque stiano le cose. Le difficoltà che gli scienziati incontrano nello spiegare i meccanismi
della visione sono insignificanti in paragone con i problemi che pone il definire cosa sia implicato
nei concetti di "consapevolezza" e "mente". Raffinate tecniche di indagine diagnostica, come la
risonanza magnetica e la tomografia a emissione di positroni (PET), hanno permesso agli scienziati
di osservare il cervello umano in modi nuovi. E osservando come il sangue affluisce a certe regioni
del cervello durante i processi mentali hanno concluso con ragionevole certezza che udire le parole,
visualizzarle e pronunciarle sono processi che coinvolgono aree diverse della corteccia cerebrale.
Nondimeno, conclude uno scrittore, "il fenomeno della mente, ovvero della consapevolezza, è
molto più complesso ... di quanto si potesse sospettare". Si, i misteri del cervello sono ancora in
gran parte da svelare.
Il cervello: solo uno straordinario computer?
Per comprendere la complessità del cervello può essere utile fare dei paragoni. All'inizio della
rivoluzione industriale, a metà del XVIII secolo, divenne di moda paragonare il cervello a una

48
macchina. In seguito, quando le centraline telefoniche divennero un simbolo di progresso, il
cervello venne paragonato a una centralina in piena attività con un operatore che prendeva
decisioni. Ora che i compiti più complessi sono affidati a computer, c'è chi paragona il cervello a un
computer. Ma il paragone spiega a sufficienza come funziona il cervello?
Tra il cervello e un computer esistono significative differenze basilari. Il cervello è
fondamentalmente un sistema chimico, non elettrico. All'interno di ogni cellula avvengono
numerose reazioni chimiche, mentre un computer funziona in maniera completamente diversa.
Inoltre, come osserva Susan A. Greenfield, "il cervello non è programmato da nessuno: è un organo
che si autoorganizza spontaneamente". Un computer, invece, deve essere programmato.
I neuroni comunicano tra loro in maniera complessa. Molti neuroni reagiscono a 1.000 o più "input"
sinaptici. Per comprendere quali conseguenze ha questo fatto, notate i risultati ottenuti da un
neurobiologo che ha studiato una regione della base del cervello, posta dietro il naso e leggermente
più in alto, per scoprire come facciamo a distinguere gli odori. Egli osserva: "Persino questo
compito apparentemente semplice, che sembra una sciocchezza in paragone con il dimostrare un
teorema di geometria o con l'apprezzare un quartetto d'archi di Beethoven, coinvolge circa 6 milioni
di neuroni, ciascuno dei quali può ricevere 10.000 stimoli dai suoi simili".
Ma il cervello non è solo un insieme di neuroni. Per ogni neurone vi sono diverse cellule dette
gliali. Queste, oltre a servire da sostegno strutturale, provvedono all'isolamento elettrico dei
neuroni, combattono le infezioni e si uniscono per formare la cosiddetta "barriera ematoencefalica"
che protegge il cervello. Secondo i ricercatori le cellule gliali potrebbero avere altre funzioni non
ancora scoperte. "L'ovvia analogia con i computer di fattura umana, che elaborano informazioni
elettroniche in forma digitale, potrebbe essere talmente incompleta da risultare fuorviante",
conclude la rivista Thè Economist.
E ci resta da spiegare ancora un altro mistero.
Di cosa sono fatti i ricordi?
La memoria, che secondo quanto scrive Ri-chard F. Thompson nel libro II cervello è "il fenomeno
più straordinario di tutto il mondo naturale", coinvolge vari sistemi cerebrali distinti. La maggior
parte degli studiosi del cervello distingue fra due tipi di memoria: dichiarativa e procedurale. La
memoria procedurale ha a che fare con capacità e abitudini, mentre quella dichiarativa implica
l'immagazzinare dati. Il succitato libro sul cervello classifica i processi della memoria sulla base del
tempo: c'è la memoria a brevissimo termine, che si conserva per circa 100 millisecondi; la memoria
a breve termine, che permane per alcuni secondi; la memoria di lavoro, che conserva le esperienze
recenti; e la memoria a lungo termine, che immagazzina le informazioni verbali e le capacità
motorie che sono state ripetute molte volte.
Una possibile spiegazione della memoria a lungo termine afferma che essa trae origine dall'attività
della parte anteriore del cervello. L'informazione selezionata per la memoria a lungo termine passa
sotto forma di impulso elettrico a una parte del cervello nota come ippocampo. Qui un meccanismo
chiamato potenziamento a lungo termine accresce la capacità dei neuroni di trasmettere messaggi.
Una teoria diversa sul funzionamento della memoria parte dall'idea che le onde cerebrali vi
svolgano un ruolo fondamentale. I suoi sostenitori ritengono che le regolari oscillazioni dell'attività
elettrica cerebrale, un po' come i colpi di un tamburo che scandisce il tempo, aiutino ad associare i
ricordi e a coordinare l'attivazione di varie cellule cerebrali.
Per quanto molti dei misteri del cervello rimangano irrisolti, questo organo straordinario ci permette
di pensare, meditare e richiamare alla mente le cose imparate. Ma come possiamo usarlo al meglio?
SINAPSI E NEUROTRASMETTITORI
Quando un neurone viene stimolato, un impulso nervoso viaggia lungo l'assone. Quando l'impulso
raggiunge la terminazione dell'assone (il cosiddetto "bottone" sinaptico), fa sì che le minuscole
vescicole sinaptiche che vi si trovano, ciascuna delle quali contiene migliala di molecole di
neurotrasmettìtore, si fondano con la membrana dell'assone e liberino il loro carico di
neurotrasmettitori nello spazio della sinapsi.

49
Attraverso un complicato sistema di chiavi e serrature, il neurotrasmettitore apre e chiude canali di
accesso nel neurone successivo. Di conseguenza, particelle dotate di carica elettrica entrano nel
neurone bersaglio e vi provocano ulteriori modificazioni chimiche che generano un impulso
elettrico oppure inibiscono l'ulteriore attività elettrica.
Quando la stimolazione dei neuroni e la conseguente liberazione dei neurotrasmettitori nello spazio
sinaptico avvengono con regolarità si verifica un fenomeno detto potenziamento a lungo termine.
Secondo alcuni ricercatori questo implicherebbe un avvicinamento dei neuroni. Secondo altri ci
sarebbero le prove che il neurone bersaglio invia a sua volta un messaggio a quello da cui è arrivato
l'impulso. Questo, a sua volta, provoca delle modificazioni chimiche tali che viene prodotta una
quantità ancora maggiore di proteine perché fungano da neurotrasmettitori. A loro volta, queste
rafforzano il legame tra i neuroni.
La modificabilità delle connessioni all'interno del cervello, la sua cosiddetta "plasticità", è
all'origine del detto:
"Ciò che non si usa si perde". Pertanto, se si vuole ricordare una cosa è utile richiamarla alla mente
spesso.
CAPACITA' CARATTERISTICHE DELL'UOMO
Grazie a regioni cerebrali specializzate dette aree del linguaggio gli esseri umani sono dotati di
eccezionali capacità di comunicazione. A quanto pare quello che vogliamo dire viene organizzato
dalla regione dell'emisfero cerebrale sinistro nota come area di Wemicke (1). Questa è in
comunicazione con l'area di Broca (2), che applica le regole grammaticali. Gli impulsi arrivano poi
ad alcune vicine aree motorie che controllano i muscoli facciali e aiutano a formare dovutamente le
parole. Queste aree, inoltre, sono connesse con il sistema visivo del cervello così che possiamo
leggere, con il sistema uditivo così che possiamo udire, capire quello che gli altri ci dicono e agire
di conseguenza, e — fatto non meno importante — con le banche dati della memoria, così che
possiamo immagazzinare pensieri significativi. "Quello che davvero distingue gli esseri umani dagli
altri animali", osserva una pubblicazione di carattere scientifico, "è la capacità di imparare
un'incredibile varietà di comportamenti, fatti e regole, non solo in relazione agli oggetti fisici
dell'ambiente in cui si trovano, ma soprattutto in relazione alle altre persone e a ciò che le spinge a
comportarsi in un determinato modo". —Journey to thè Centres of thè Brain.

Può un computer arrivare a pensare? Così su due piedi, qualsiasi risposta diate è dettata
dall'emotività, quindi non vale granché. Comunque, anche riflettendoci sopra un sacco di tempo,
ciascuno di noi potrebbe tirare fuori risposte diverse o addirittura contraddittorie, dal momento che
la domanda di per sé può essere interpretata in diversi modi, dare adito ad equivoci. Infatti, siete
sicuri di sapere che cos'è un computer? E soprattutto, siamo tutti d'accordo su cosa significa
pensare? L'ultima questione è piuttosto spinosa, e quindi cercheremo di aggirarla. Quanto invece
alla precedente, ovvero che cosa sia effettivamente un computer, non l'ho posta per semplice
sfiducia nei confronti del lettore. Il fatto è che quando si prova a definire rigorosamente un concetto
che credevamo acquisito, esso ci sfugge come sabbia tra le dita. Diceva Sant'Agostino a proposito
del tempo: "Se nessuno mi chiede cos'è, lo so. Ma se qualcuno me lo chiede, non lo so più".
Vediamo di non fare la stessa fine!
Un computer è "una macchina (o un insieme di apparecchiature) destinate all'elaborazione dei dati
secondo procedimenti anche complessi, definiti attraverso programmi che vengono svolti
automaticamente dalla macchina stessa." Esso si divide essenzialmente in due parti: l'hardware (la
macchina in sé) e il software (il programma che fa funzionare la macchina). Quale che sia il
modello di elaboratore elettronico che stiamo considerando, la sua struttura interna è basata sullo
schema logico elaborato da John Von Neumann alla fine degli anni '40, detto appunto schema di
Von Neumann. Secondo tale concezione, il computer è costituito da unità periferiche (tastiera,
schermo, memorie ausiliarie, stampanti, ecc.) e unità centrale, detta CPU (Central Processing Unit).
Quest'ultima è composta a sua volta da un'unità centrale di governo, un'unità aritmetico-logica e
dalla memoria di lavoro, che contiene i dati e i programmi in corso di elaborazione.

50
Altre due caratteristiche tipiche di tutti i computer, e che sono fondamentali per il discorso che
tenteremo di fare sono le seguenti

• 1. Gli elaboratori elettronici sono macchine digitali, ovvero operano su quantità discrete:
numeri, caratteri, parole. I dati al loro interno non circolano sotto forma di grandezze fisiche
continue (come ad esempio la tensione elettrica, o la fase), bensì in forma binaria, attraverso
due soli tipi di segnale elettrico: una corrente costante che rappresenta l'uno, e l'assenza di
corrente, che rappresenta lo zero. Questo comporta notevoli vantaggi dal punto di vista della
semplicità dei circuiti, che sono disegnati solamente in base alle tre funzioni fondamentali
previste dalla logica binaria: AND, OR e NOT.
• 2. Gli elaboratori elettronici sono macchine seriali, ovvero compiono una sola operazione
per volta. Il fatto che a noi sembri che facciano più cose insieme è dovuto alla loro estrema
velocità nel portare a termine i compiti assegnati. Ad esempio, il personal che sto usando in
questo istante ha una clock di 40 Mhz, il che significa che è in grado di compiere 40 milioni
di operazioni al secondo. Ecco perché sembra che la tastiera funzioni contemporaneamente
al monitor mentre la memoria immagazzina quello che scrivo. In realtà, il PC fa funzionare
prima il monitor, poi legge quanto proviene dalla tastiera, poi lo memorizza, infine lo fa
apparire sul monitor, e quindi ricomincia il ciclo. Il microprocessore però riesce a scambiare
informazioni con le periferiche 40 milioni di volte in un secondo, e questo mi dà l'illusione
che tutto avvenga nello stesso momento. Al contrario, noi esseri umani, come tutti gli altri
organismi biologici, siamo "macchine" parallele, riusciamo cioè a fare più cose insieme,
come ad esempio parlare, camminare e respirare senza soffocare né inciampare né
dimenticare cosa stavamo dicendo.

Il software è il programma, ovvero l'elenco di istruzioni che consente al computer di svolgere di


volta in volta le elaborazioni cui è destinato. I programmi sono scritti in linguaggi simbolici detti
linguaggi di programmazione, come il fortran, il Pascal, il C, che i compilatori (programmi
particolari che fanno parte del software di base come anche i sistemi operativi) provvedono poi a
"tradurre" nel linguaggio macchina proprio di ogni tipo di elaboratore.
Un amico che lavora da decenni nel campo dell'informatica, una volta mi disse: "Il computer è la
macchina più stupida del mondo. Perché se accendi un trapano, il trapano funziona. Quando accendi
un computer, invece, devi spiegargli come deve funzionare." Ritorniamo alla domanda da cui siamo
partiti. Come può questo manufatto che abbiamo appena descritto, questo "stupido" ammasso di
silicio e circuiti stampati arrivare a pensare? Se si è convinti del fatto che un pensiero razionale è
costituito da pensieri razionali di taglia più ridotta, assemblati secondo regole logiche precise, come
recita la scuola tradizionale della disciplina conosciuta come Intelligenza Artificiale, allora le attuali
macchine, dotate di opportuno software, già sono in grado di "pensare". Questa è la posizione
sostenuta da alcuni dei padri fondatori della IA, come Herbert Simon e Allen Newell. Ma quella che
abbiamo appena dato è una definizione soddisfacente di pensiero? Esistono differenti modi di
pensare? Certo noi non assegniamo lo stesso grado di consapevolezza ad un gatto e ad un essere
umano, ma appare evidente che il gatto assume comportamenti che presuppongono una certa
capacità di osservare l'ambiente, di costruirsene una rappresentazione interna e di agire di
conseguenza. Quando il gatto caccia il topo, diciamo che esso segue l'istinto, ma è ovvio che
un'operazione complessa come quella del cacciare necessita di una forma, seppur primitiva, di
intelligenza. Gli esseri umani elaborano forme più sofisticate di pensiero, come il pensiero
razionale, o il pensiero intuitivo. Ma ciò che davvero distingue l'uomo dagli altri animali è il
pensiero cosciente. Oltre ad una rappresentazione dell'ambiente, l'uomo è in grado di costruire una
rappresentazione di se stesso, di avere coscienza della propria esistenza. E' in grado di formulare
una frase come Cogito, ergo sum, penso dunque esisto. Io posso quindi affermare in tutta
tranquillità di essere autocosciente e intelligente. Ma come faccio a sapere che gli altri esseri umani,
i miei amici, le mie amiche, le persone che frequento sono anch'esse autocoscienti e intelligenti?

51
Semplice: lo deduco dal loro comportamento. Da come rispondono agli stimoli dell'ambiente, alle
domande che pongo loro. Visto che le definizioni di coscienza e di intelligenza sono così difficili da
ricavare, perché non applicare questo criterio comportamentista anche alle macchine? Partendo
dall'assunto che una macchina che riesca a simulare un comportamento intelligente deve possedere
caratteristiche che davvero la rendono molto simile ad un essere intelligente, Alan Turing ha
elaborato un test per individuare forme di pensiero evoluto nelle macchine. Il test consiste nel
chiudere uno sperimentatore in una stanza con un terminale. Lo sperimentatore può porre al
terminale tutte le domande che vuole, ma non sa se dall'altra parte c'è un computer o un altro essere
umano. Se la macchina riesce a ingannare lo sperimentatore, Turing sostiene che essa ha buone
probabilità di essere una macchina pensante. Certo, ci sono domande che sono più efficaci di altre
per smascherare un computer:
D.: Per cortesia, mi scriva un sonetto che tratti del Ponte sul Forth [un ponte sul fiordo di Forth, in
Scozia].
R.: Non faccia affidamento su di me per questo, non ho mai saputo scrivere poesie.
D.: Sommi 34957 a 70764.
R.. (Pausa di circa 30 secondi e poi la risposta) 105621.
D.: Gioca a scacchi?
R.: Sì.
D.: Ho il Re in e1 e nessun altro pezzo. Lei ha solo il Re in c3 e una Torre in h8. Tocca a lei
muovere. Che mossa fa?
R.: (Dopo una pausa di 15 secondi) Torre in h1, matto.
Comunque, molti ritengono che questo sia un buon metodo per verificare lo stato di evoluzione di
una macchina, tanto che William Gibson, nell'ormai mitico Neuromante, chiama Registro Turing la
polizia che si occupa della repressione delle Intelligenze Artificiali.
Esistono a tutt'oggi macchine in grado di superare il test di Turing? Joseph Weizenbaum nel 1966-
67 realizzò un programma battezzato Eliza che simulava il trattamento terapeutico di uno
psicoterapeuta a colloquio con un paziente umano, apprendendo via via dall'esperienza a migliorare
le sue prestazioni. Weizenbaum non aveva progettato la sua "creatura" per superare il test di Turing,
bensì per studiare il problema della comprensione del linguaggio, ma di certo Eliza avrebbe
ingannato più di un paziente. Il punto è che la validità del test dipende da quanto dura e da chi lo
conduce.
C'è però chi sostiene che con il test di Turing non è possibile stabilire se davvero un macchina è in
grado di pensare. John Searle ci propone un Gedankenexperiment, un esperimento ideale, davvero
interessante: la stanza cinese. Immaginiamo di chiudere in una stanza un uomo di madrelingua
inglese che non capisce assolutamente il cinese, che anzi vede gli ideogrammi come "sgorbi privi di
significato". Da una fessura gli inviamo un testo in cinese, con un questionario, sempre in cinese,
sulla comprensione di quel testo, e un foglio di istruzioni in inglese che gli spieghi come collegare
degli ideogrammi del testo con altri del questionario e quali copiare su un foglio bianco da infilare
in una seconda fessura. Chi legge il foglio che esce dalla stanza ci trova scritte le corrette risposte
alle domande che erano state poste e deduce quindi che la stanza capisce il cinese. Ma noi tutti
sappiamo che l'uomo della stanza non ha fatto altro che manipolare simboli formali senza
comprendere il loro significato. E questo, sostiene il filosofo americano, è esattamente quello che
fanno i computer attuali: elaborano dati senza capire cosa questi rappresentano, e ciò non significa
affatto aver realizzato l'Intelligenza Artificiale, dal momento che

"[...] le elaborazioni di simboli formali non hanno di per sé alcuna intenzionalità; sono
assolutamente prive di senso; non sono neppure elaborazioni di simboli, poiché i simboli non
simboleggiano nulla. Per usare il gergo dei linguisti, essi hanno una sintassi ma non hanno una
semantica. L'intenzionalità che i calcolatori sembrano possedere è unicamente nella mente di coloro
che li programmano e che li usano, di coloro che immettono gli ingressi e programmano le uscite."

52
Le obiezioni mosse da Searle sono a mio parere molto fondate e difficilmente confutabili. Sommate
a quelle di altri critici della IA tradizionale, possono essere riassunte in tre punti fondamentali.
• 1. L'esistenza di una sintassi non è condizione sufficiente per l'esistenza di una semantica.
• 2. Non dobbiamo fare troppa confusione tra simulazione e riproduzione: quando facciamo
girare sul computer la simulazione di un uragano, non ci aspettiamo certo di essere bagnati
dalla pioggia. Perché invece facendo girare la simulazione di un comportamento intelligente
ci aspettiamo di aver riprodotto l'intelligenza?
• 3. Nel paragonare il cervello a un computer e la mente a un programma si commette un
errore di fondo, dal momento che hardware e software sono facilmente e nettamente
separabili (tanto che lo stesso software può girare su hardware diversi), mentre questo non è
altrettanto vero per la coppia cervello-mente. Non siamo affatto sicuri che la struttura e le
capacità della mente umana siano totalmente indipendenti dal loro supporto biologico. Per
usare le parole di Marcello Cini, "L'identificazione del cervello con un computer trascura
infatti una quantità di risultati che mostrano come il modo utilizzato dagli esseri umani e
dagli animali per classificare gli oggetti e gli avvenimenti in categorie non ha niente a che
vedere con la logica o con il calcolo. L'analisi dell'evoluzione, dello sviluppo e della
struttura del cervello rende infatti estremamente improbabile l'ipotesi che esso funzioni
come una macchina di Turing."

Questo significa che non riusciremo mai a realizzare le macchine sognate da tanti scrittori? Certo,
con l'attuale architettura sarà difficile arrivare ad un computer sensibile come il Multivac, che se
non gli dici "per favore" si offende e non comincia a fare i calcoli! E il terribile computer-dio del
racconto La risposta di Brown? Ve lo ricordate? Tutti gli elaboratori elettronici della galassia
vengono collegati in un unico super cervellone che deve rispondere alla fatidica domanda: "Esiste
dio?" E il computer risponde: "Sì, adesso Dio esiste.", e con una saetta celeste incenerisce il povero
tecnico che cercava di staccare la spina.
Fortunatamente, l'eventuale produzione di un tale manufatto sembra molto lontana, come sembrano
lontani i fratellini di HAL 9000, che all'occorrenza si trasformano in sofisticati killer, o le
inquietanti IA che mettono in atto la secessione dalla razza umana per occuparsi con maggior libertà
dei propri affari.
Ma cosa manca ai nostri computer per essere intelligenti, o meglio per avviarsi sulla strada del
comportamento intelligente? Sicuramente tre caratteristiche tipiche dei sistemi biologici in cui per
la prima volta questo tipo di comportamento è emerso, ovvero il parallelismo, la ridondanza e
l'autoreferenzialità.
Del parallelismo abbiamo già parlato. Gli organismi viventi possono compiere azioni differenti
nello stesso momento, gli elaboratori elettronici no. E a poco valgono gli sforzi per superare il collo
di bottiglia dell'entrata alla CPU attraverso incredibili velocità di calcolo: le macchine seriali
falliscono miseramente in compiti relativamente semplici come riconoscere le sagoma di un oggetto
in un ambiente disturbato. Per ovviare a questo inconveniente si stanno sperimentando architetture
interne che si discostino nettamente dallo schema di Von Neumann, e vedremo più avanti a che
punto si è con questi tentativi.
Per quanto riguarda la ridondanza, il discorso e un po' più complicato. Una macchina che venga
progettata per un determinato scopo possiede un numero finito di pezzi, ciascuno dei quali
essenziale per il compito che deve svolgere. Se uno solo dei pezzi si rompe, la macchina non è più
in grado di funzionare. Di qui il famoso adagio "Una catena è forte quanto il suo anello più debole".
Per gli organismi viventi, siano essi batteri unicellulari o mammiferi superiori, le cose non stanno
affatto così. Una stessa funzione può essere espletata da organi differenti. La perdita di un pezzo, in
genere, non rende la macchina biologica inutilizzabile.
Facciamo qualche esempio. Le proteine delle quali il nostro corpo ha bisogno vengono assemblate
dagli organuli delle cellule, seguendo il programma scritto nel nostro codice genetico. Le proteine
sono costituite da mattoni più piccoli detti aminoacidi. Questi vengono individuati dal DNA

53
attraverso particolari sequenze, dette triplette, perché formate da tre basi azotate. Le basi utilizzate
dal DNA per descrivere gli aminoacidi sono quattro: adenina, guanina, timina e citosina. Un rapido
calcolo ci informa che con questo sistema è possibile individuare 64 aminoacidi. Ma in natura ne
esistono solo 20. Di conseguenza, più triplette differenti indicano lo stesso aminoacido. Questo è un
fenomeno di ridondanza, fondamentale per la sopravvivenza e l'evoluzione degli esseri viventi.
Spiega Cini:
"[...] il DNA ripetitivo, come ridondanza strutturale iniziale, e la degenerazione del codice genetico,
come ridondanza funzionale, possono essere spiegati come possibili meccanismi di differenziazione
cellulare durante lo sviluppo embrionale. In questo modo infatti la quantità di informazione
contenuta nel "programma" genetico può essere considerevolmente ridotta rispetto a quella
necessaria per una determinazione rigorosa dei dettagli del processo di differenziazione. In altre
parole questi dettagli non sono specificati a priori nel patrimonio genetico, ma sono frutto del
processo evolutivo che li origina attraverso la distruzione della ridondanza iniziale da parte
dell'intervento aleatorio dell'ambiente. Questo sembra valere in particolare per lo sviluppo del
sistema nervoso, [...] evitando la necessità di codificare nell'informazione genetica tutti i dettagli di
un sistema costituito da dieci miliardi di neuroni interconnessi."
L'uso della ridondanza si riflette anche sul modo in cui circolano le informazioni all'interno del
cervello. Se anche un solo bit di un programma va perduto, il programma non gira più, non
funziona. Quando invece il segnale di un neurone si perde nel rumore di fondo del nostro cervello, i
nostri pensieri continuano ad avere un senso compiuto. Addirittura la morte di un numero non
troppo elevato di neuroni non inficia le nostre capacità intellettive. Tutto questo grazie alla
ridondanza e all'alto grado di parallelismo dell'architettura cerebrale.
L'autoreferenzialità è un'altra caratteristica fondamentale, sebbene poco nota, dei sistemi biologici.
Darne una definizione chiara non è semplice. Vediamo di cominciare con un esempio che risulti
comprensibile a tutti. Ricordate il paradosso del mentitore? Una delle sue forme più conosciute è
questa:
Epimenide il cretese dice:

"Tutti i cretesi mentono"

Il paradosso è evidente: se Epimenide dice il vero, sta mentendo, perché lui è un cretese che non
mente; se invece Epimenide sta mentendo, dice il vero, perché appunto conferma che tutti i cretesi
mentono. Insomma, Epimenide mente o dice il vero? Come si esce da questo vicolo cieco logico?
La soluzione è meno complessa di quanto può sembrare: è vero che tutti i cretesi mentono, ma non
contemporaneamente! Esiste cioè almeno un cretese che, in un certo istante, dice il vero:
Epimenide, appunto. La frase che origina il paradosso ha un carattere autoreferenziale, il significato
della seconda riga interviene su quello della prima, parla cioè di se stessa, è una sorta di cane che si
morde la coda. Per uscire dal cortocircuito linguistico, facciamo ricorso ad una proprietà nuova,
della quale non c'è traccia nelle frase stessa, ovvero la collocazione temporale delle azioni di cui si
parla. Se proprio vogliamo dare un significato profondo alla frase, essa ci comunica appunto che
non tutti i cretesi mentono contemporaneamente, una informazione che non compare affatto nel
distico sopra riportato. Il messaggio risulta quindi essere qualcosa più della somma delle parole
della frase. L'autoreferenzialità porta all'emergere di proprietà superiori, nascoste, impreviste.
Gli organismi viventi, considerati da questo punto di vista, sono dei paradossi biochimici: la loro
organizzazione interna è infatti strutturata in una gerarchia di livelli caratterizzati da proprietà non
riducibili a quelle del livello più elementare. Basta pensare che il DNA contiene l'informazione
necessaria per la sintesi delle proteine, ma le proteine sono necessarie per realizzare questa sintesi e
duplicare lo stesso DNA. La gerarchia interna dei sistemi biologici deve quindi essere "intrecciata",
cioè dev'essere sede di catene causali circolari (anelli ricorsivi) che rompono l'ordine gerarchico
lineare facendo retroagire reciprocamente i livelli superiori con quelli inferiori. Gli organismi
acquistano in tal modo un carattere autoreferenziale, un carattere che, se sul piano della logica

54
formale produce paradossi (come abbiamo appena visto), nel mondo del divenire degli oggetti reali
genera, come risoluzione del paradosso, l'emergere di nuove strutture e di nuove proprietà. Una di
queste proprietà è proprio l'intelligenza cosciente. Per riprodurla in un manufatto dobbiamo tentare
di riprodurre catene causali, anelli ricorsivi. Nel caso degli esseri viventi, essi erano costituiti dalla
possibilità di retroazione reciproca dei livelli fisici di una struttura organizzata gerarchicamente.
Qui si tratta di livelli della struttura informazionale di un programma, ma il problema è lo stesso.
Questo approccio è lontano anni luce dagli attuali modelli di IA. Sarebbe come se un programma
potesse modificare il compilatore che lo sta compilando, o come se un PC potesse riscrivere da solo
il proprio sistema operativo. Anzi, peggio, perché nel nostro cervello, nuove esperienze producono
nuove sinapsi, inediti collegamenti tra mappe neuroniche: il software che modifica l'hardware!
Roba da far venire i brividi agli hacker più spregiudicati!
Ma sentiamo cosa ha da dire sull'argomento Douglas Hofstadter, uno dei ricercatori più brillanti nel
campo dell'IA:
"Le spiegazioni dei fenomeni emergenti nel nostro cervello - idee, speranze, immagini, analogie, e
alla fine coscienza e libero arbitrio - si fondano sull'esistenza di anelli ricorsivi, cioè di interazioni
fra livelli tali che il livello superiore retroagisce su quello inferiore e lo influenza, mentre al tempo
stesso è a sua volta determinato da quello inferiore. [...] Il «sé» nasce nel momento in cui acquista il
potere di riflettere se stesso."
E ancora:
"Ciò è del tutto estraneo allo stile attuale dell'informatica, che vuole l'implementazione dei livelli
uno sopra l'altro, in maniera strettamente verticale e a compartimenti stagni. Che un livello
superiore sia capace di retroagire e influire sui livelli inferiori - che sono i suoi stessi puntelli - è una
sorta di operazione magica che ci sembra molto vicina al nucleo della coscienza." I tentativi di
costruire un elaboratore parallelo hanno finora portato a due risultati notevoli: le reti neurali e la
Connection Machine. Entrambe queste soluzioni possiedono anche delle caratteristiche
"ridondanti", mentre per quanto riguarda l'autoreferenzialità siamo ancora in alto mare.
La Connection Machine nasce proprio da una riflessione sui limiti dello schema di Von Neumann.
Anziché concentrare tutte le capacità di calcolo in una CPU superpotente e tutti i dati e i programmi
in una megamemoria di difficile gestione, questo rivoluzionario computer sfrutta 65.536 unità di
elaborazione semplicissime, ciascuna delle quali dotata della sua piccola memoria. Sebbene ogni
unità sia molto meno potente di un normale PC, lavorando insieme esse riescono a eseguire
parecchi miliardi di istruzioni al secondo. La macchina connessionistica è quindi uno dei più veloci
elaboratori mai costruiti, ma la cosa più impressionante è la sua flessibilità, dovuta
fondamentalmente alla sua originalissima architettura. Sentiamone una descrizione dalla viva voce
del suo ideatore, W. Daniel Hillis:
"L'elemento fondamentale che si ripete nella macchina connessionistica è un circuito integrato
composto di 16 piccole unità di elaborazione e di un dispositivo per l'instradamento della
comunicazione. Ogni unità è dotata di 4069 bit di memoria.[...] Le 16 unità sono incise su un'unica
piastrina (chip) e la piastrine sono a loro volta incapsulate a gruppi di 32 su un unico pannello a
circuiti stampati. La macchina contiene 128 di questi pannelli, che sono sistemati in un cubo di 1,5
metri di lato.[...] Le 16 unità di elaborazione di ciascuna piastrina sono collegate mediante un
commutatore che consente di stabilire un collegamento diretto tra due elementi qualunque. Per
ottenere un collegamento diretto tra due qualunque delle 65.536 unità del sistema, sarebbero
necessari più di due miliardi di fili, un'impresa impossibile. Invece si è collegato il dispositivo
d'instradamento di ciascuna piastrina con altri 12 dispositivi dello stesso tipo. Questi «instradatori»
sono collegati fra loro secondo uno schema chiamato cubo booleano a n dimensioni."
Cosa sia esattamente un cubo booleano a n dimensioni non è cosa facile da spiegare in poche
parole. Hillis, comunque, ci riesce:
"Il comune cubo tridimensionale può essere pensato come un membro di una successione di «cubi»
corrispondenti a dimensioni spaziali diverse. Per esempio, un segmento può essere considerato
come un «monocubo» o cubo unidimensionale. Collegando gli estremi di due monocubi si ottiene

55
un «bicubo» cioè un quadrato; congiungendo i vertici di due quadrati si ottiene un «tricubo», cioè la
figura che normalmente chiamiamo cubo. Allo stesso modo, collegando i vertici di due tricubi si
ottiene un «quadricubo». Questo procedimento può essere ripetuto un numero arbitrario di volte, e
si può dimostrare agevolmente che un dodecacubo possiede 212 (cioè 4096) vertici, tanti quante
sono le piastrine della macchina connessionistica."
Lo schema del dodecacubo presenta indubbi vantaggi. Innanzitutto, nessuna unità di elaborazione
dista più di 12 fili da qualsiasi altra, e questo facilita la comunicazione della rete. Inoltre, in questo
modo è possibile individuare qualsiasi vertice del dodecacubo con una sequenza di 12 cifre binarie.
Questi indirizzi instradano i messaggi che si scambiano le 4096 piastrine, e affinché un messaggio
arrivi a destinazione non occorrono mai più di dodici passi.
Per il momento, la Connection Machine viene utilizzata per trattare immagini ad alta definizione o
per simulare fenomeni i cui modelli matematici prevedono il calcolo simultaneo di un numero
enorme di grandezze fisiche. Le applicazioni della macchina connessionistica all'IA si limitano
attualmente all'impostazione di problemi relativi ai ragionamenti basati sul buon senso.
Le reti neurali, come dice il nome stesso, sono costituite da tante piccole unità di elaborazione simili
a neuroni (sebbene estremamente più semplici), connesse tra loro da una fitta serie di collegamenti.
Hanno poco a che spartire sia con i computer in generale sia con lo schema di Von Neumann in
particolare. Il modello su cui si basano questo tipo di reti è infatti prettamente biologico, cercano di
imitare la struttura e le funzioni dei tessuti nervosi viventi.
I simulatori di neuroni sono in genere piccoli amplificatori operazionali, mentre sinapsi e dendriti
sono costituiti da resistori e condensatori. Le reti non sono digitali (sebbene ne esistano simulazioni
software), ma analogiche, ed è proprio l'intensità del segnale che i neuroni artificiali si scambiano a
veicolare il messaggio. Per il momento, questi dispositivi vengono utilizzati per risolvere problemi
di ottimizzazione, che richiedono una decisione collettiva di tutte le componenti della macchina.
Nell'esecuzione di questi compiti, le reti sono più rapide e più affidabili degli elaboratori
convenzionali, proprio grazie alla loro struttura parallela. Inoltre, la loro memoria non è costituita
da supporti ferromagnetici, che hanno tempi e modalità di accesso incompatibili con la memoria
associativa tipica degli organismi viventi, bensì dalle stesse connessioni che mettono in
comunicazione gli pseudoneuroni, in stretta analogia con quanto avviene nel nostro cervello.
Recenti studi mostrano come sia possibile costruire una rete neurale non dedicata ad uno scopo
preciso per poi addestrarla a compiere determinate operazioni. La rete è in grado di apprendere e
riprodurre il comportamento che le viene richiesto, anche se per il momento è assolutamente
prematuro parlare di intenzionalità.
Se mai l'IA venisse realizzata, credo sia molto più probabile che si raggiunga lo scopo grazie a
manufatti come quelli appena illustrati piuttosto che attraverso gli attuali, ottusi manipolatori di
simboli formali.
Un neonato ha enormi potenzialità, potenzialità che vengono sviluppate attraverso la crescita e
l'apprendimento. Tappe fondamentali del suo sviluppo sono la scoperta del corpo e l'esplorazione
dell'ambiente circostante. Senza attraversare queste due fasi un bambino (ma anche un qualsiasi
altro cucciolo animale) non può in alcun modo raggiungere una qualche forma di intelligenza e di
consapevolezza. Analogamente, c'è chi è convinto, a mio parere giustamente, che non è possibile
creare l'IA senza dotare la macchina pensante di un corpo con il quale esplorare l'habitat, attraverso
il quale interagire con cose e persone. Insomma, se guardiamo con più attenzione ai processi
evolutivi che hanno portato all'apparire sul nostro pianeta della vita intelligente, ci accorgiamo che è
assai più plausibile che la consapevolezza venga raggiunta da un robot anziché da un semplice
computer. Sottolinea infatti Vincenzo Tagliasco:
"Almeno per quanto concerne le macchine, si è potuto verificare che una intelligenza senza un
corpo che le permetta di confrontarsi e di interagire col mondo esterno si arena di fronte agli usuali
problemi del vivere quotidiano (il cosiddetto buonsenso, il sapere euristico, l'insieme delle
conoscenze e delle attitudini che ci permettono di sopravvivere)."

56
La parola robot appare per la prima volta nel dramma di Karel Capek R.U.R (Rossum's Universal
Robots), scritto nel 1920 e andato in scena nel 1921. I robot descritti da questo autore sono costruiti
con materiale organico (oggi sarebbero definiti androidi o cyborg), e sono destinati unicamente al
lavoro. Racconta il protagonista del dramma di Capek: "Il vecchio Rossum cercò di imitare con una
sintesi chimica la sostanza viva detta protoplasma finché un bel giorno scoprì una sostanza il cui
comportamento era del tutto uguale a quello della sostanza viva... Dapprincipio tentò di fare un cane
artificiale... e poi si diede alla formazione dell'uomo.[...] Il giovane Rossum inventò l'operaio con il
minor numero di bisogni. Eliminò tutto quello che non serviva direttamente al lavoro. Insomma,
eliminò l'uomo e fabbricò il Robot."
La descrizione del robot sopra riportata molto si avvicina a quello che sarà poi il reale sviluppo
dell'automazione. A parte infatti i primi animaletti cibernetici degli anni cinquanta, quali la machina
docilis di W. Grey Walter (1950) o lo scoiattolo artificiale Squee di Jensen, Koff e Szabò (1951), la
produzione di robot si limita a manufatti a scopo industriale, lontani anni luce dai meravigliosi
umanoidi asimoviani. Questi operai meccanici vengono progettati per rendere al massimo, e
perdono immediatamente qualsiasi sembianza antropomorfa. Anzi, forse è addirittura fuori luogo
chiamarli robot, se abbiamo in mente l'iconografia classica del termine. I protagonisti della fabbrica
postmoderna sono delle braccia meccaniche, dei manipolatori governati a distanza dal computer
centrale. Sono da considerarsi i perfetti alimentatori delle macchine utensili che costituiscono
l'ossatura della catena di montaggio. Fino al 1985, la robotica si è occupata principalmente di
progettare questo tipo di "automi", perché questo chiedeva il mercato, e quindi per questo tipo di
studi erano disponibili finanziamenti. Ma quando ci si rese conto che il disegno facciamo-uscire-un-
operaio-facciamo-entrare-un-robot non poteva essere completato senza ripensare ex novo l'intero
processo manifatturiero (operazione che avrebbe richiesto investimenti astronomici), la domanda di
robot industriali conobbe una flessione la cui ripida pendenza andava al di là dei classici cicli
recessivi dell'economia capitalista. E si aprirono spiragli per una robotica più vicina alle suggestioni
della cibernetica e della bionica.
Il nuovo corso della robotica si propone, in un certo senso, di dare un corpo a quelle menti che per
decenni sono state sviluppate nei laboratori di Intelligenza Artificiale. E infatti, molti degli attuali
robot soffrono di difetti simili a quelli dei programmi "intelligenti" quando si imbattono in problemi
"sporchi" come il riconoscimento delle forme in movimento, o la comprensione del linguaggio,
sembrando incapaci di applicare il semplice buonsenso. Questi sfortunati manufatti automatici
tendono così a cacciarsi in pasticci da cui né il ragionamento né i servomotori riescono a tirarli
fuori: per esempio si incastrano sotto un sedia.
Il problema è che il mondo reale è complesso (lo sappiamo bene noi che dobbiamo viverci tutti i
giorni!!), e quindi una sua rappresentazione, quand'anche limitata allo scopo di attraversare una
stanza senza inciampare nel mobilio, lo sarà altrettanto. Quindi, o immettiamo nel cervello del robot
un quantità enorme di informazioni corredate da altrettante regole per correlarle (il che
probabilmente trascinerà il poveretto in un vicolo cieco logico alla prima difficoltà che incontra),
oppure lo mettiamo in condizione di imparare. La chiave dell'IA, dell'automazione, della vita
artificiale sembra proprio essere questa: l'imitazione degli analoghi naturali, tenendo ben presente
l'importanza dei processi evolutivi nello sviluppo delle caratteristiche morfologiche e
comportamentali. Sempre Tagliasco ci fa notare che:
"Nell'evoluzione delle macchine intelligenti si è cercato di saltare intere generazioni di macchine
più modeste, ma in grado di fornire preziosi stimoli per capire come gli organismi biologici
interagiscono con l'ambiente attraverso la percezione, la locomozione, la manipolazione."
Ma ora, fortunatamente, c'è chi segue un approccio più coerente a una visione filogenetica della
robotica: prima di insegnare a un robot a giocare a scacchi, è necessario insegnargli a muoversi, a
vedere, a sentire. Insomma, anche nel robot intelligente occorre creare non solo una ontogenesi che
riassuma un preciso percorso filogenetico, ma anche una infanzia, che gli consenta di mettere a
punto autonomi processi di apprendimento e di adattamento all'ambiente in cui vivrà. E' necessario
quindi riprodurre due evoluzioni parallele: una che da costrutti più semplici porti alla produzione di

57
macchine sempre più complesse e sofisticate, un'altra, tutta interna alla vita del singolo automa, che
lo faccia crescere intellettivamente, dandogli modo di apprendere, da solo o sotto la supervisione
umana, le nozioni necessarie alla sua sopravvivenza nel nostro caotico habitat.
Da tutte le chiacchiere fatte finora, anche se non siamo riusciti a capire che cosa significhi pensare o
cosa sia davvero l'intelligenza, abbiamo visto che molte delle idee tradizionali che per decenni
hanno guidato le ricerche dell'IA si sono rivelate poco adatte allo sviluppo di macchine pensanti,
proprio perché poco attente al mondo biologico e troppo attratte da una visione logico-razionale
dell'attività cerebrale. Tommaso Poggio, ne L'occhio e il cervello, fa a questo riguardo una
osservazione:
"Sarebbe certo interessante riuscire a proporre una definizione di intelligenza che enfatizzi
l'aspetto dell'apprendimento. Considerate un sistema artificiale come un robot o il computer
che lo controlla: il sistema ci sembrerà intelligente se sarà capace di imparare
dall'esplorazione dell' ambiente, come un bambino."

58
L'uomo è un computer?

Ci si chiede spesso se sia possibile clonare un essere umano non solo dal punto di vista "fisico" ma
anche da quello "intellettivo". Cioè ci si domanda, in ambito scientifico ma non solo, se sarà
possibile, in un futuro anche non troppo vicino, trasferire tutte le conoscenze di un uomo adulto su
un computer e da lì all'interno di un corpo clonato in laboratorio, per ottenere due individui
perfettamente uguali non solo nell'aspetto fisico ma anche nei ricordi, nei pensieri e nella coscienza
di sé.
Infatti, se la clonazione fisica di un corpo umano in teoria può essere effettuata (è solo questione di
tempo: l'ambiente scientifico pensa che il genoma umano verrà mappato completamente nel giro di
cinque/ sei anni), non si è altrettanto sicuri su una possibile duplicazione "psichica".
Toccando questo argomento ci si rende abbastanza bene conto che da scienza a fantascienza il passo
è veramente breve!

Il professore di bioinformatica americano Pierre Baldi sta scrivendo un libro sull'argomento,


intitolato The end of evolution. Egli è convinto (e devo dire che ha convinto anche buona parte della
platea del seminario, con conti matematici e molto probabili) che, con il potenziamento
esponenziale dei computer e con il progresso della bioingegneria, sarà possibile, entro una
cinquantina d'anni, mettere tutti i ricordi e le sensazioni di un essere umano adulto all'interno di una
memoria di un calcolatore. Da qui il passo verso un clone "psichico" sarebbe veramente breve:
sarebbe infatti questione di interfacciare opportunamente il cervello "artificiale" con questa
memoria di massa e di fargli apprendere tutte le nozioni.

Il progresso dell’intelligenza artificiale non ha seguito quello vertiginoso delle tecnologie


informatiche: se le prestazioni dei computer odierni vanno al di là della maggior parte delle
previsioni di mezzo secolo, non è lo stesso per quanto riguarda i più modesti risultati ottenuti all’AI.
I paladini delle obiezioni di Lady Ada Lovelace contro la possibilità di costruire computer dotati di
autentica intelligenza, o magari di "anima" sono riusciti ad arrivare all’alba del XXI secolo
pressoché indenni. Chi sostiene che – prima o poi – i computer riusciranno a raggiungere l’uomo
può invocare a suo favore, più che gli scarsi risultati attuali, il fatto sperimentato innumerevoli volte
che sia quasi impossibile, nella scienza, dire "mai". Possiamo forse dire che nel 2050 non avremo
ancora computer "intelligenti". Possiamo azzardarci a mantenere questa affermazione per il 2200? E
per il 3000? È però anche vero che a volte la scienza ha trovato dei limiti, ad esempio secondo molti
il limite della velocità della luce sarebbe assolutamente invalicabile. Non potrebbe esservi un limite
simile anche per l’intelligenza, o per la coscienza? Dato che viene spesso osservato che il limite fra
genio e pazzia è piuttosto tenue, non potrebbe proprio la follia essere il limite per una crescita
indefinita dell’intelligenza?
Una cosa che comunque risulta chiara è che non possiamo programmare un computer se non
sappiamo cosa deve fare. Ogni passo avanti dell’AI è anche un passo avanti nella nostra conoscenza
di come ragioniamo e sentiamo il mondo: se inizialmente l’AI ha avuto bisogno di importare idee e
categorie dalla filosofia "classica", adesso è vero anche il contrario: è nata la media philosophy, che
ha gettato nuova luce su alcuni aspetti fondamentali della filosofia tradizionale. A questo proposito
sono di fondamentale importanza le opere di Dennett e di Hofstadter, in particolare "L’io della
mente" e l’arcinoto "Gödel, Escher Bach: un’eterna ghirlanda brillante". Questi autori preferiscono
partire dall’ipotesi che sia possibile costruire computer capaci di superare il test di Turing, ed
esaminano quali conseguenze scaturiscono da quest’ipotesi, compresi alcuni interessanti
"cortocircuiti": in uno dei saggi più interessanti, si fa l’esempio di un ingegnere statunitense

59
(l’hardware), rinchiuso in una stanza: da una fessura gli vengono passati fogli scritti in cinese (i
dati), lingua che egli ignora totalmente. Ha però a disposizione un grosso libro (il software) col
quale, in modo del tutto meccanico, elabora delle risposte – sempre in cinese – che poi manda fuori
dalla fessura. Il libro contiene appunto il software di emulazione di un poeta cinese, per cui chi è
fuori dalla stanza, è condotto a pensare che al suo interno si trovi imprigionato un poeta cinese, che
scrive struggenti versi sulla sua situazione. Ma, proprio come noi "dobbiamo" ammettere che se un
computer supera il test di Turing per un essere umano, è un essere umano (ne ha cioè la coscienza, o
"l’anima" che dir si voglia"), dobbiamo ugualmente ammettere che lì, da qualche parte, c’è
veramente un poeta cinese. La domanda è allora: dov’è il cinese? O, se vogliamo, il tutto è davvero
solo la somma delle sue parti?
Una delle (poche) accuse che si possono muovere a quest’opera – come a buona parte dell’AI – è il
suo meccanicismo. Un computer è un insieme assolutamente deterministico, mentre un cervello non
lo è: quando scegliamo di emularlo a livello dei neuroni (come nel caso delle reti neuronali) o della
manipolazione di simboli (come nel caso di un programma di AI classico) stiamo in realtà
nascondendo sotto al tappeto tutti gli altri livelli, e, soprattutto, il caos.
La scarica di un neurone in effetti non è deterministico come quella di una porta logica: per quanto
sia in gran parte statisticamente prevedibile, è comunque soggetta a fluttuazioni casuali.
Potremmo allora formulare un’ipotesi affascinante ed innovativa: è proprio la casualità,
l’indeterminazione assente della simulazione virtuale ma inevitabilmente presente nel mondo reale,
la radice della coscienza. È proprio l’errore, l’imprecisione, che danno al reale una ricchezza
irraggiungibile dai circuiti digitali.
Prima che il lettore prenda troppo sul serio questa ipotesi, voglio però concludere con
un’osservazione ed una domanda.
L’osservazione è che – dato che il reale ed il virtuale sono mondi fortunatamente comunicanti –
possiamo sempre collegare il nostro software AI con un generatore di rumore casuale. Una tazza di
tè bollente potrebbe bastare, come accade in un bel libro di fantascienza. Una volta ottenuta la
casualità che ci mancava, possiamo finalmente creare un software dotato di "anima". Sorge allora
una domanda interessante (specialmente per un riduzionista):
• l’insieme software + tazza di tè bollente ha un’anima
• il software non ha l’anima
• si può allora dedurre che l’anima è nella tazza di tè?

INDUZIONE, SOLIPSISTI E REALISTI TRA GLI ELEFANTI ROSA


Ci sono alcune questioni che vanno chiarite prima di iniziare ad addentrarsi nei ragionamenti.
Supponiamo di chiedere a una persona sull'esistenza del mondo reale: potrebbe non avere dubbi sul
fatto che è lì dove tutti sappiamo, e sembra ridicolo porsi una questione del genere. Ma proviamo a
indagare meglio il fenomeno: chiediamo ad esempio se il Sole sorgerà domani mattina. Come
possiamo rispondere? Il ragionamento più sensato è quello di dire: oggi è sorto, ieri è sorto, tutti i
giorni sorge. Dunque suppongo plausibile che anche domani sorgerà. Certo, per ragioni ignote
potrebbe succedere una enorme esplosione, o comparire al posto del Sole un enorme elefante rosa.
La probabilità che associamo a questi fatti è scarsissima, ma quella che facciamo è comunque una
estrapolazione. In realtà stiamo applicando l'induzione. Se le cose cioè sono sempre andate così,
immaginiamo che ancora sarà così. E la deduzione, riconosciuta come altra strategia di pensiero
nell'indagine umana, è in realtà come fatto notare ad esempio da Giuliano Toraldo di Francia in un
intervento su Deep Blue e le strategie di pensiero, una legge che vale proprio sulla base della
induzione!
E' un meccanismo innestato nel cervello per selezione naturale: funziona bene, e chi lo applica ha
più probabilità di sopravvivere. Già Hume, dopo questa stessa riflessione, intuiva in modo
embrionale questa spiegazione.

60
Quindi è plausibile che vengano dei dubbi quando lascio un oggetto dietro le spalle: esso è ancora al
suo posto? Sulla base di esperienze precedenti posso dire che quando mi giravo lo trovavo sempre
lì, ma a riguardo di stavolta? Quasi tutti concorderebbero che l'oggetto è ancora lì, va contro il buon
senso. Ad esempio potrei escogitare l'astuzia seguente: un amico continua a guardare e mi tiene
informato. Ma non è qui il punto: mettiamo da parte il buon senso che tanto confonde le idee in
certe questioni e proviamo a mettere in dubbio i fondamenti del nostro agire: pensiamo di chiudere
gli orecchi, e non avere nessun tipo di percezione riguardo a quell'oggetto. Io non so cosa gli stia
succedendo, non posso dire niente riguardo lo stato attuale di ciò che non raggiunge i miei organo
percettivi, neppure se esiste. Tutto questo perché abbiamo messo in discussione una strategia di
pensiero che non possiamo effettivamente giustificare in nessun modo se non probabilisticamente:
l'induzione. Di fronte a queste argomentazioni si può reagire in almeno due modi. Il primo è quello
detto solipsismo: riconosciutele di valore cruciale, si dichiara che tutto quello che mi lega all'esterno
sono le percezioni istantanee e sono l'unica cosa di cui si può parlare. Il solipsista è egocentrico:
l'unico riferimento e l'unica entità di cui garantisce l'esistenza è se stesso. Il motivo per cui le cose
poi vanno sempre nello stesso modo è non spiegabile, cioè il noumeno è effettivamente
inconoscibile. Questo non toglie che faccia comunque comodo l'induzione e non è difficile solipsisti
che fanno benzina prima di un viaggio. Il secondo modo è il 'realismo': verifico che l'induzione non
sbaglia quasi mai, e mai in particolare su certe cose a memoria d'uomo e quindi si ritiene
arbitrariamente che vi sia qualcosa sotto: ad esempio che il mondo reale corrisponde a qualcosa di
fissato, e si finisce per assumere questo come un postulato verificato al 100%.
COME BY-PASSARE LE FILOSOFIE DELLA MENTE?
Può a priori un computer pensare? Senza ancora specificare cosa si intende per pensare, facendo
riferimento al concetto che tutti possediamo, per un solipsista la risposta è no. Intanto già non è
d'accordo che si possa credere che gli uomini pensino come lui sta pensando in quel momento. Io so
che penso, vedo gli altri che agiscono come se stessero pensando come me, ma nulla in effetti posso
dire, non si possono comparare le mie sensazioni con quelle di un altro. Ad esempio, la sola
percezione del colore: come vedono gli altri quel colore che io vedo come blu e che entrambi
chiamiamo blu? A nulla valgono ragionamenti sui sintomi di stress che si percepiscono vedendo il
colore rosso: posso dire che entrambi abbiamo una reazione di fronte a una certa lunghezza d'onda
delle radiazioni elettromagnetiche, ma su come nel mio cervello veda il rosso, questo è un fatto non
descrivibile se non da stati di neuroni e non quantificabile in ultima analisi visto che ogni cervello è
diverso. Figuriamoci insomma se quella che diciamo coscienza per noi si può estendere a un altro
uomo; a un computer poi... La critica che viene portata sembra effettivamente molto solida. Se essa
fosse corretta, non sarebbe possibile per me neo-solipsista concepire un computer pensante; se non
lo fosse potrei procedere, io anti-solipsista, alla dimostrazione del contrario, e non è detto che vi
riuscirei per cause ora ignote. In ogni caso rispondere a questa obiezione potrebbe richiedere una
ricerca di anni. Forse però è possibile non rispondere e riuscire egualmente a procedere, con un
atteggiamento pratico che fondi sulle strategie di pensiero umane così ben sperimentate negli ultimi
millenni e da me stesso (in senso lato!).
IL TEST DI TURING
Se vogliamo essere pratici, per muoverci in avanti, siamo costretti a delineare ciò che
fenomenologicamente una macchina deve saper fare per poter dire che pensa. Affidiamoci per il
momento all'idea di test di Turing, espressa da Alan Turing negli anni cinquanta, in uno storico
articolo che precorreva straordinariamente i tempi, in cui si proponeva di rispondere alla domanda:
'può una macchina pensare' quando ancora l'informatica e la computer science erano agli albori.
Turing utilizza questo test per procedere nel modo che anche noi ci proponiamo. Consiste in questo:
un uomo si trova al calcolatore in una stanza; in un altro luogo, si trovano un uomo, una donna e un
calcolatore collegati al calcolatore nella stanza. L'uomo non sa se a rispondergli è uno dei due
umani o il programma del calcolatore; egli pone delle domande a cui chi risponde può dire la verità
o mentire con astuzia. Se l'uomo della stanza non è in grado di stabilire chi dei due ha risposto
quando uno dei due è il calcolatore, allora il computer sa pensare secondo Turing. Credo che questo

61
test oggi abbia dei limiti, cioè possa essere superato brillantemente da un computer istruito
adeguatamente e con un database enorme in modo totalmente meccanico, cioè con un libretto di
istruzioni per manipolare oggetti a seconda del tipo di ingresso, scritto da un uomo vero.
Supponendo fosse possibile, in linea di principio basterebbe che un uomo fosse interrogato su tutto
il suo scibile per mesi e anni, scrivendo tutte le risposte alle possibili domande ordinate per aree
semantiche con qualche criterio, e resterebbe fuori ben poco: avremmo una quasi-copia di
quell'uomo, ma il meccanismo che genera le risposte sarebbe tutt'altro che cosciente, e neppure
l'insieme di tutte le informazioni rappresenterebbe la coscienza di quell'uomo: ne sarebbe solo
l'epifenomeno. Quello che manca è ciò che intuitivamente possiamo dire l'originalità. Il programma,
per chi l'ha costruito, sarebbe totalmente prevedibile, mentre non lo sarebbe l'uomo che è stato per
così dire clonato, che potrebbe sempre sorprendere il programmatore che implementava la sua copia
con una risposta nuova.
NECESSITA' DEL CONCETTO DI SIMBOLO
Non credo si possa accettare che un programma di questo tipo renda una macchina pensante. Di
questa stessa opinione è ad esempio Searle. Questo sembra confermare il teorema di Church nella
versione proposta da Hofstadter nel suo famoso libro "Godel, Escher, Bach", che afferma
ironicamente che l'IA (Intelligenza Artificiale) è tutto ciò che non si è riusciti a realizzare del
pensiero umano; in realtà il problema è notevole e siamo costretti a rafforzare le richieste perché in
qualche modo ci sentiamo spronati dal pungolo dei solipsisti, che rifiutano l'idea che già a livello di
uomini si possa comparare in qualche modo il loro pensiero con quello degli esseri che
percepiscono, di cui non possono dire nulla a priori e a proposito dei quali tutto quello che sanno è
per la descrizione a parole che essi possono dare di se stessi.
Allora quello che effettivamente richiediamo quando vogliamo che una macchina pensi è in qualche
modo che essa pensi come noi. Cioè vogliamo identificare una procedura che avviene nei cervelli di
uomini e animali, e dire che ragionevolmente essa è uguale per tutti in quanto tutti possono a livello
comportamentale confermarla, e che è un buon modello per verificare il comportamento degli
animali. Espressa in altri termini, questa è anche la tesi dei Churchland. Per sapere cosa
effettivamente questo voglia dire, occorre precisare meglio. Se un computer addestrato come quello
di prima sa rispondere in modo corretto, questo avviene grazie a una programmazione sapiente che
gestisce in modo opportuno stringhe (insiemi di caratteri) e combinazioni di stringhe in modo che
chi legge vi attribuisca un significato, indipendentemente da quello che il computer coglie. Il
problema sta nel fatto che anche il programmatore, se trascuriamo il dettaglio che andrebbe molto
più lento, potrebbe ottenere lo stesso risultato, perché dovrebbe solo applicare il suo algoritmo.
Anche un bambino con una certa destrezza potrebbe riuscire ad applicare le regole che al
programma permettono di rispondere; il fatto è che potremmo tradurre le parole ad esempio in
colori, usare le stesse regole, e avere un meccanismo che funziona bene indipendentemente da ciò
che si può associare ai simboli visivi, senza che ci sia nessun significato. Un sistema di questo tipo è
chiamato anche il gioco delle scatole cinesi. Il sistema sarebbe 'chiuso'. E' necessario rafforzare le
richieste di Turing, sempre per l'ottima ragione che vogliamo procedere in modo costruttivo nella
ricerca. Richiediamo quindi che il meccanismo con cui vogliamo che la macchina pensi passi in
primo luogo da simboli memorizzati con procedure di ingresso-uscita, di addestramento, in un
modo che ricalca l'apprendimento dei bambini: all'input corrisponde una uscita che modifica lo stato
del calcolatore: vedo una mela e mia madre dice MELA; così imparo ad associare a percezioni
diverse la stessa configurazione e dico che ad esse corrisponde un simbolo. Cioè il simbolo è una
coppia di percezioni applicate all'oggetto materiale (cervello, chip) che riceve la codifica degli
organi di senso (in impulsi elettrici). Negli uomini come negli animali è evidente che
l'apprendimento passa per questo canale. Il cervello degli animali superiori inoltre, nell'uomo
sicuramente, è selezionato in modo tale da poter richiamare come ricordo una percezione, e usarlo
in luogo della percezione stessa, all'occorrenza. A questo proposito, bisogna dire che il meccanismo
è certamente variabile da individuo a individuo, e questo sembrerebbe confermare almeno alcune
affermazioni di un solipsista o di uno scettico: ad esempio parlando con molte persone ho scoperto

62
che esse sono in grado di vedere mentalmente immagini in movimento, mentre io non ne sono in
grado se non durante il sonno; altri non lo sono mai.
Comunque il simbolo, definito in questo modo, permette l'apprendimento, e nell'uomo la facoltà
della parola permette di ricostruire la percezione uditiva in modo fedele, incrementando
notevolmente la forza del simbolo stesso. Il cervello apprende in modo elementare per uguaglianze,
nelle prima fasi dello sviluppo. Poi l'apprendimento di un linguaggio permette l'immissione di
informazione in maniera più rapida; ma ricordo che ancora a sei anni non conoscevo parole per
esprimere certe mie sensazioni interne dovute a malattie, e che i miei genitori cercavano di
suggerirmi a tentativi. Il fatto di non avere la percezione interna in comune riportava il problema di
apprendimento alla radice, lo metteva a nudo.
Successivamente si apprendono termini associati a percezioni interne, riunite in raggruppamenti che
chiamiamo concetti. Con il linguaggio è possibile cioè implementare nel cervello simboli astratti,
che si riferiscono non solo a classi di oggetti (identificare un triangolo, come potrebbe fare una rete
neurale) ma a estrapolazioni e a generalizzazioni. Ad esempio, mi si insegna, se vedo una persona
interrompersi nel compiere un lavoro, sostare immobile, e poi riprendere: quell'uomo ha pensato. Io
attribuisco alla conoscenza della mia esperienza personale un legame con ciò che ho osservato per
analogia, strategia di pensiero che si autoseleziona, e apprendo che quello che compio quando penso
si dice pensare. Oppure mi si può ricordare tutti gli avvenimenti in cui un uomo ne ha ucciso un
altro e associare a questo insieme il termine omicidio.
Un cervello che ragiona per simboli astratti è pronto per assumere l'identità di mente cosciente. Da
qui al passo successivo, cioè rendere un pezzo di silicio una mente cosciente, il salto, anche se
tecnicamente immenso, è concettualmente breve.
LA MENTE COSCIENTE
Tra le tante associazioni possibili che il cervello può fare ce n'è una, che si distingue dalle altre, che
chiude il cerchio. Supponiamo che il cervello abbia appreso l'uso del termine percezione, nel senso
consueto relativo agli organi di senso compresi quelli chimici interni, e quello del termine percepire,
riferito alla propria azione. Supponiamo che, tramite gli organi di senso, esso abbia percezione di se
stesso, e vi abbia associato il simbolo IO. A questo proposito ricordiamo che il bambino, nei primi
mesi di vita, impara ad associare le proprie percezioni tattili nelle dita, e successivamente quelle
visive, con le percezioni tattili passive dei propri organi, e poi impara ad associare la parola IO a
tutto ciò; e anche le scimmie sono in grado di recepire questo simbolo, come mostrano certi
esemplari che imparano codici di vario tipo (muto o pittografico) e che formano proposizioni
contenenti riferimenti a sé.
Il passo seguente è assolutamente centrale per la nostra indagine, pur nella sua semplicità. Nel
momento in cui il cervello formula la proposizione 'Io percepisco me stesso che mi percepisco ', in
quel preciso momento il cervello è una mente cosciente. Questo è quanto occorre e basta per
definire la mente cosciente.
Bisogna osservare che un uomo, pur rappresentando in certi momenti una mente cosciente, non lo è
sempre. Nella maggior parte del tempo un uomo si dedica a una attività, e pensa cose esterne a se
stesso. Poi ripensa a se stesso, si ridefinisce mente cosciente, e ricordando di averlo già fatto, si
attribuisce questa proprietà in maniera continuata nel tempo, ma adesso solo in senso improprio!
Il passo verso l'implementazione di una mente cosciente artificiale è breve in termini astratti. Nella
pratica vi sono difficoltà tecniche enormi, ma se fossero superate sarebbe sufficiente questa
proposizione per rendere la mente artificiale una mente nostra pari.
All'atto pratico questa M.C.A. (mente cosciente artificiale), se interrogata sulla propria coscienza di
sé, risponderebbe come un uomo. E' chiaro che non basta questo poi a renderla autosufficiente
intellettualemente, ma questo mi pare secondario. Il fatto che sia pungolata da 'istinti' che la
spingono a ricercare il proprio piacere, è una naturale richiesta per generare un'entità che tenda a
svilupparsi, e questo è fuori discussione; questo è il primo passo di tutte le ricerche intraprese. Per
fare un esempio, ognuno di noi è debitore di tutti i suoi predecessori in tutti i campi del sapere, e ci
sentiamo originali mentre in realtà imitiamo le forme che ci sono consuete: un bambino lasciato

63
selvaggio nella foresta non scriverà mai una poesia né formulerà un'equazione. Per una M.C.A si
tratterebbe solo di imparare come noi e di essere provvista artificialmente (questo lo si ottiene
facilmente) di un istinto all'imitazione con varianti, caratteristica che tra l'altro ci vede accomunati
alle scimmie. Il fatto rilevante è che credo che quella detta, ovvero la possibilità di formulare il
pensiero autocosciente, sia la discriminante che si deve richiedere per ottenere una I.A., sulla base
della differenza che noi uomini osserviamo tra la nostra natura e quella degli altri animali. Prima di
concludere vorrei prevenire alcune obiezioni che sorgono spontanee da parte dei più: la prima è di
carattere epistemologico, e ritorna sulla questione di partenza: si può dire sulla base di quanto detto
che una M.C.A. sarebbe nostra pari a livello di coscienza? Se rispondesse correttamente a chi la
interroga non resterebbe il dubbio che la reazione non sia 'automatica'? La risposta è semplice: se
questa contestazione la si prende in considerazione, essa vale per ogni uomo diverso da me;
ricordiamoci che il cervello di ciascuno è diverso ad esempio dal mio, e che quella che io chiamo
coscienza per me non si estende a priori neanche ai miei simili. Si pensi solo alle diverse
rappresentazioni mentali delle immagini. Quindi visto che ci accordiamo di parlare della stessa cosa
'a scatola chiusa', dobbiamo accettare di farlo per ogni sistema che abbia la mia stessa modalità di
apprendimento: silicio compreso o chi per esso. La seconda obiezione la potremmo definire di
orgoglio: può un uomo ammettere che un suo prodotto abbia la caratteristica che lo contraddistingue
nell'universo, o ancora peggio che un pezzo di silicio abbia un anima? Anche qui non ci resta che
chinare la testa di fronte alla realtà dei fatti, quali che essi saranno, perché la realtà non è ciò che noi
desideriamo o l'opposto di ciò che temiamo, ma semplicemente è costituita da ciò che possiamo
misurare. Ed è ovvio che non ci sia spazio per la metafisica nella fisica, per definizione; la
metafisica si occupa di altro, per chi ci crede, e a un livello che la fisica non può mettere a nudo.
Quello che mi preme di sottolineare, infine, è che credo che questa sia la risposta all'ironica
affermazione di Hofstadter, sulla definizione sfuggente e mai definitiva di I.A.. Se venisse
realizzata una M.C.A. sulla base della ricetta che ho presentato, non avrei veramente più nulla da
obiettare, e la partita la considererei chiusa. Con buona pace dei solipsisti.

COME SI FA A CREARE un robot intelligente? Una macchina capace di imparare e sviluppare


abilità nuove, proprio come facciamo noi umani, partendo dall’osservazione del mondo e
dall’interazione con l’ambiente? La nuova direzione in cui si muove lo studio dell’intelligenza
artificiale – grande sogno di Alan Turing, il matematico che per primo ideò nel 1935 l’antenato dei
nostri computer – si chiama “sviluppo mentale autonomo”. Ed è un principio su cui lavorano, a
sforzi congiunti, due discipline a prima vista lontane tra loro: le neuroscienze e le scienze
dell’informazione. A studiare il potenziale di questo principio è oggi un gruppo di ricercatori della
Michigan State University, in Usa, guidati da Juyang Weng, del Dipartimento di computer science
della stessa università. Il contributo del team americano a un’avventura umana, che non manca di
affascinare il mondo della scienza così come quello della letteratura e del cinema, è apparso questa
settimana sulla rivista Science.
Ma cos’è lo “sviluppo mentale autonomo”? Pensiamo a cosa succede nell’uomo. Con la nascita ha
inizio un processo di apprendimento che durerà per tutta la vita: attraverso i sensi, l’uomo
interagisce con il suo ambiente e invia i dati raccolti in tempo reale al cervello. Infine, grazie al suo
particolare programma di sviluppo, scritto nei geni, l’uomo accresce le proprie capacità mentali. Un
robot capace di imparare dalle sue esperienze funziona, secondo gli studiosi, in modo analogo: un
sistema artificiale, che fa le veci del cervello umano, viene guidato dal suo particolare programma
di sviluppo, disegnato in questo caso dal programmatore. Resta immutata la scintilla che dà il via
all’apprendimento, e cioé la raccolta dei dati sull’ambiente esterno, attraverso i sensori della
macchina.
Come Weng scrive su Science, i robot progettati secondo il metodo tradizionale non sanno cosa
stanno facendo: si limitano a eseguire un programma. Queste macchine dunque non possono fare
nulla di diverso dalle funzioni per cui erano state pensate fin dall’inizio. Se, durante l’esecuzione
del programma, alcuni parametri vengono modificati in base ai dati sensoriali raccolti dal robot,

64
allora si dice che il robot “sta imparando”. Ma non è questa la forma di apprendimento intesa dai
sostenitori dello “sviluppo mentale autonomo”. Secondo il nuovo paradigma, infatti, il robot
dovrebbe essere disegnato per sviluppare sul lungo periodo le stesse articolate abilità di un cervello
adulto. Come la capacità visiva, il ragionamento, il linguaggio.

Ecco dunque la ricetta, secondo i ricercatori americani, per creare un vero robot capace di sviluppo
mentale autonomo. Prima di tutto bisogna disegnargli un corpo adatto alle condizioni ambientali di
lavoro in cui sarà inserito (per esempio, sul terreno piuttosto che sottacqua). Poi bisogna progettare
il suo programma di sviluppo. Il robot “nasce” la prima volta che esegue tale programma. E
“cresce” mentalmente grazie alle cure degli scienziati, che interagiscono con il robot in tempo reale.
Secondo questo principio, la macchina “vive” nel mondo in maniera autonoma, dietro parziale
supervisione dell’uomo. E dall’”infanzia” all’”età adulta”, il robot ha il tempo di sviluppare abilità e
astuzie, a seconda degli stimoli esterni che ha ricevuto.
Ma non è tutto. L’idea nuova rispetto a quelle tradizionali sta nel non fissare a priori le funzioni
specifiche che avrà il futuro robot. Al momento della programmazione, infatti, tali funzioni sono
ancora sconosciute. Così, la macchina dovrà essere progettata per riuscire a svolgere ogni lavoro
che il futuro proprietario potrà insegnarle. Naturalmente, il programma di sviluppo mentale
autonomo deve tener conto di un processo di apprendimento “per gradi”: prima di insegnare a
scrivere a un robot, per esempio, bisogna insegnargli come tenere in mano una penna.
E dopo?
Cosa c’è nel futuro di queste macchine intelligenti? «Dall’avanzamento degli studi in questa nuova
direzione prevediamo un grosso impatto su scienza, economia e società », affermano gli studiosi
della Michigan State University. Secondo il team di Weng, infatti, lo “sviluppo mentale autonomo“
aiuterà i ricercatori a gettare nuova luce su molte delle nostre abilità cognitive. Potremmo così
approfondire le attuali conoscenze sulla capacità visiva, uditiva e di azione, ma anche sul
linguaggio, e sulla facoltà di pianificare, prendere decisioni ed eseguire compiti. Come spesso si
dice, infatti, anche il nostro cervello “lavora come un computer”. I circuiti neuronali assomigliano a
quelli elettronici contenuti in un microchip, e allo stesso modo svolgono calcoli e risolvono
problemi. È perciò molto importante, per psicologi e neuroscienziati, riuscire a scoprire i principi
computazionali della nostra mente. Studiare questi principi nei robot potrebbe aiutarci dunque a
rispondere ad alcune delle principali questioni ancora aperte, su come il cervello umano sviluppa il
senso del mondo attorno a sé e, forse, la sua stessa coscienza.

Per quanto riguarda l'intelligenza umana, essa è senz'altro capace di svolgere con successo calcoli e
operazioni basate sulla logica formale, anche se, in questo tipo di attività, un essere umano è
solitamente meno veloce e maggiormente soggetto ad errori rispetto a un computer. Ma la nostra
intelligenza va ben al di là della meccanica applicazione di algoritmi per lo svolgimento di compiti
la cui soluzione è, in ultima analisi, già contenuta in potenza nella procedura utilizzata. Una delle
definizioni di intelligenza più largamente accettate è infatti quella di capacità di risolvere problemi.
Questi devono essere nuovi, almeno per certi aspetti, o comunque contenere elementi di diversità
rispetto a problemi affrontati (o visti affrontare) con successo in passato. Oppure è necessario che i
problemi stessi vengano risolti in maniera innovativa rispetto ai casi precedenti.
Ciò significa che la semplice applicazione di regole e procedimenti noti, per lo svolgimento di
compiti di cui si conoscono già tutti gli aspetti implicati, non può essere considerata un'attività
autenticamente intelligente. Perché, altrimenti, la componente ripetitiva e meccanica delle attività
degli esseri viventi, anche se spesso di fondamentale importanza ai fini della sopravvivenza,
sarebbe stata assegnata dall'evoluzione ad automatismi o a sequenze comportamentali posti sotto il
controllo dell'istinto?
Del resto, solitamente non si considerano intelligenti gli idiot savant, individui capaci di eseguire
mentalmente calcoli molto elaborati, ma estremamente limitati in altri campi; come non viene

65
reputato intelligente l'impiegato che mostra di saper svolgere con grande precisione le mansioni
affidategli applicando alla lettera procedure e regolamenti.
Per quanto possa apparire sorprendente, tuttavia, è proprio a questo tipo di operatività che gli
scienziati fanno riferimento quando parlano di computazione (o di intelligenza artificiale), convinti
che essa sia in grado di esaurire tutti gli aspetti e le possibilità che caratterizzano l'intelligenza
umana.
L'intelligenza sembrerebbe quindi potersi caratterizzare come la capacità di andare oltre l'ordine
esistente: ciò che permette di affrontare la componente di novità insita in una data situazione, reale
o semplicemente immaginata. Essa si esprime attraverso uno sforzo di adattamento, di
trasposizione, di ricerca di analogie e differenze, di classificazione, generalizzazione e
discriminazione: sforzo che non può essere, a sua volta, delimitato da procedure completamente
formalizzate.
Tale attività di elaborazione costituisce senz'altro l'aspetto più caratteristico dell'intelligenza umana,
quello che la fa qualitativamente diversa dalla computazione, e implica il più delle volte, una sorta
di "salto logico", non interamente ricostruibile attraverso i riferimenti posseduti in partenza. Una
ricostruzione puntuale è possibile, ma soltanto dopo, alla luce di regole e procedimenti elaborati
successivamente. Per questo, si può dire che l'intelligenza è inscindibile da quella caratteristica tutta
particolare rappresentata dalla creatività (che si manifesta spesso sotto forma di improvvise
intuizioni), la quale, per definizione, è aliena da qualsiasi tentativo di riconduzione a schemi
precostituiti.
Purtroppo, non esiste alcuno spazio all'interno della concezione computazionale per la creatività, né
sembra possibile una seria considerazione per essa da parte della scienza. La computazione,
operando secondo regole predefinite, appare assolutamente incompatibile con qualsiasi forma di
creatività, la quale implica, precisamente, un porsi al di là delle regole; il modello di spiegazione
scientifica basato sulla riconduzione a leggi di validità generale, in maniera strettamente analoga, è
costretto a rifiutare a priori l'idea di una creatività svincolata da qualsiasi principio regolativo.
L'unica possibilità concessa, alla luce di tali prospettive, è quella di creatività frutto del puro caso.
Ma si tratta di una soluzione assai poco soddisfacente, che viene ad aggiungersi alle risposte,
altrettanto poco soddisfacenti, offerte dalla computazione (e dalla scienza in generale) sulle
problematiche relative ad altre caratteristiche della nostra mente.

66
Il punto di vista

Ogni uomo osserva il mondo dal proprio particolarissimo punto di vista, una finestra sul mutevole
divenire della realtà.
Il solipsismo può essere sostenuto con grande coerenza.
Ogni cosa è riferita ad un osservatore e in questo senso l'uomo è la misura di tutte le cose.
Secondo Russell, la conoscenza comporta un riferimento esterno ad oggetti la cui esistenza è
indipendente dal pensiero e la cui struttura "atomica" è direttamente presente alla percezione.
Questa dottrina è conforme al comune "buon senso", ma molti filosofi considerano gli oggetti come
prodotti del pensiero; essi, scrive Russell in Introduzione alla filosofia matematica, "vogliono
persuadere se stessi e gli altri che il mondo reale è differente dal mondo apparente".
Secondo Wittgenstein, in ciò d’accordo con il Circolo di Vienna, le proposizioni della metafisica,
dell’etica e della religione sono estranee all’ambito logico-espressivo dei "fatti"; pertanto, sono
enunciati senza senso. Filosofia, intuizione, rivelazione, mistero sono concetti "ineffabili" e privi di
logica. I problemi vitali non possono essere chiariti dalla filosofia che, infatti, si limita a dire ciò che
accade, senza comprenderlo. Ogni accadimento ha lo stesso senso di qualunque altro; tutti i "fatti
sono di pari valore" e i valori sono separati dai fatti, sicché l’uomo non è in condizione di pensare
ed esprimere una gerarchia di valori.
Secondo Wittgenstein, l’ambito espressivo è ben ristretto perché è riferito al "mondo dei fatti" senza
riguardare la soluzione dei problemi dell’esistenza. Da questo sentimento dei limiti della
conoscenza umana egli pervenne al "solipsismo", cioè al convincimento che il senso della vita è
attingibile solo nell’autocentralità dell’individuo, che rimane unico riferimento a se stesso.

Secondo la meccanica quantistica è l'osservatore a decidere il risultato degli esperimenti: se voglio


osservare onde il fotone mostrerà il suo aspetto ondulatorio, se voglio osservare particelle il fotone
si comporterà come una particella.
È in questo modo che si supera il dualismo onda particella, per quanto possa sembrare incredibile.

La sfera fenomenologica è comunque una sfera soggettiva. Su di ciò non vi sono dubbi: l’oggetto
mi appare come una cosa reale che è nel mondo - oppure come una mia immagine fantastica. Gli
atti di verifica che io compio per accertare se ciò che io vedo è una pura e semplice illusione oppure
una cosa reale sono in grado di esibire una distinzione tra «reale» e «immaginario», ma questa
distinzione non ha altra garanzia oltre questi stessi miei atti di verifica. Perciò si tratta di una
distinzione soggettiva. Ma - ed è questo il punto essenziale - questo carattere soggettivo non ottiene
il suo senso dalla contrapposizione con una oggettività già data. Posso dire che il dato
fenomenologico vale come reale anzitutto per me: ma in ciò non è ancora implicito il fatto che
questa validità sia una validità solo per me o anche per tutti. È su questo terreno che si pone in
modo legittimo la questione della distinzione tra oggettivo e soggettivo in senso comune. Quando
parliamo di una verità soggettiva contrapponendola a una verità oggettiva, intendiamo in realtà
affermare che un determinato oggetto è valido solo per me e non per tutti.. Ma in entrambi i casi vi
è un riferimento soggettivo che diventa visibile nel momento in cui formulo il problema in termini
di validità: questa validità è sempre una validità per qualcuno. Ciò che muta è il senso del soggetto
per il quale qualcosa è valido, non il riferimento soggettivo in quanto tale. Perciò vi è una sottile
quanto decisiva differenza di senso tra il carattere soggettivo dell’esperienza fenomenologica e il
carattere soggettivistico di una esperienza scettico-fenomenistica..
Se si accetta questa impostazione non si chiederà in che modo l’oggettività del sapere sia garantita
dall’essere in sè della realtà, ma piuttosto: in che modo a partire dall’esperienza che anzitutto è mia
e che vale anzitutto per me si costituisce una esperienza che non sia soltanto mia, ma anche di altri,

67
così da dare origine a una validità per tutti, a un dato che può essere riconosciuto da tutti come
valido e che quindi è oggettivo? È naturale che scompaia allora la questione della possibilità della
conoscenza: essa era agitata dallo scettico sulla base del presupposto fondamentale del realismo
teorico. O più precisamente: questo problema assume un significato completamente diverso, dal
momento che esso non dà più luogo a insolubili aporie ma si traduce semplicemente in un compito,
solubile per principio, di descrizione sistematica del processo soggettivo nel quale qualcosa si dà a
me come conosciuta nella sua verità oggettiva, e cioè valida per tutti. Perciò ha ragione il senso
comune quando rifiuta le argomentazioni scettiche come vuoti sofismi. Soltanto che per cogliere il
senso e le motivazioni di questo rifiuto occorre fare un giro molto più lungo, passare attraverso e
oltre la teorizzazione della tesi latente dell’esistenza di una realtà oggettiva, accettare la
provocazione scettica e superarla dall’interno. Allora non avremo la semplice conferma acritica di
una credenza o l’accettazione dogmatica di una filosofia - la filosofia del «senso comune» o un’altra
forma di realismo filosofico più compiutamente elaborato - ma si porrà piuttosto il problema di
un’esplorazione del terreno di questa credenza che sia in grado di portare alla luce le sue
motivazioni.
All’interno di questa impostazione complessiva ritroviamo alcuni dei classici problemi dello
scetticismo, ma con un significato del tutto nuovo. Ritroviamo anzitutto la questione del solipsismo.
Tuttavia esso non si presenta ora come una posizione teorica e neppure come una situazione
aporetica. L’esperienza fenomenologica è in primo luogo solipsistica e non può essere che
solipsistica. Se ci riferiamo ai termini del discorso cartesiano, è evidente che la certezza del cogito
non ha bisogno di alcuna mediazione che passi attraverso gli altri: questa certezza rimane intoccata
anche supponendo che non esista nessuno all’infuori di me. Ma il solipsismo non è che una
conseguenza del dubbio ed anch’esso ha una pura e semplice funzione metodologica. Per questo
motivo si tratterà di vedere in che modo a partire da questa esperienza solipsistica, si costituisca
un’esperienza più ampia, un’esperienza che non è soltanto mia, ma di altri, e infine di tutti, in modo
tale che ciò che prima avevamo chiamato semplicemente «soggettività» assume gradualmente il
senso di una comunità soggettiva di soggetti o, secondo un termine caratteristico della
fenomenologia, di un’intersoggettività.
Se riflettiamo sulla posizione di questo problema ci rendiamo conto che esso è, per motivi non
casuali, del tutto estraneo al «realismo ingenuo» o alla critica che lo scetticismo tenta di esercitare
nei suoi confronti. Per una posizione ingenuamente realistica esso non sussiste perché il carattere di
oggettività di una conoscenza dipende unicamente dal fatto che essa rispecchia un essere in sè reale.
Proprio per questo - poiché è oggettiva in questo senso - una simile conoscenza sarà valida per tutti.
La validità assume dunque, rispetto all’oggettività, un senso logicamente secondario. La stessa
impostazione di fondo si può ritrovare nello scetticismo: esso riproduce la stessa situazione, ma
soltanto «a rovescio». Poiché non vi è nessuna adeguazione tra questa conoscenza e la realtà che
essa deve rispecchiare, ogni conoscenza può essere valida solo per me, e per nessun altro. Anche
qui il significato dell’essere valido è subordinato alla questione dell’adeguazione e del
rispecchiamento della conoscenza della realtà.

Tutto ciò che osservo è rapportato a me come soggetto.


Le informazioni convogliate dai sensi giungono alla mia coscienza che è unica ed irripetibile.
Che cosa succede allorchè il dato meramente fisico diventa oggetto della coscienza?
Esiste uno iato incolmabile tra il mondo fisico e l'atto di coscienza.
Ognuno continuamente sperimenta lo stato di coscienza, ma ha accesso solo alla propria coscienza
che si incarna in un corpo fisico particolare e precisamente collocato nel tempo e nello spazio.
Il gusto di questo caffè è accessibile solo a me mentre lo sperimento.
Ognuno di noi costituisce una finestra sul mondo, ognuno dal proprio punto di vista.
Grazie al linguaggio è possibile collegare tutti questi punti di vista per originare una realtà
condivisa. Ogni cervello è unico e irripetibile, ogni coscienza fornisce di senso alle cose del mondo.
Il significato di ogni informazione sul mondo risiede nella mente di un osservatore.

68
Ogni cosa di cui si possa parlare richiede un interlocutore umano che interpreti le informazioni e
fornisca loro un significato. Ogni pensiero è pensato da una mente.

69
Indice

Mente e cervello

Mente e coscienza

Mente e realtà

Mente e computer

L'uno e il molteplice

Intelligenza artificiale

L'uomo è un computer

Il punto di vista

70