Vous êtes sur la page 1sur 23

Introduzione

Normalmente si pensa che la scienza sia un metodo o un insieme di metodi; pertanto lo studio del
metodo scientifico (noto come metodologia della scienza) occupa una posizione centrale all'interno
della filosofia della scienza. Normalmente le scienze vengono divise in due tipologie: le scienze
naturali e le scienze sociali. Le prime si occupano del mondo naturale e comprendono la fisica, la
chimica, l'astronomia, la geologia e la biologia; le altre hanno un interesse specifico per il mondo
umano e il mondo sociale, e comprendono la psicologia, la sociologia, l'antropologia e l'economia.
Le scienze sociali studiano il comportamento e le istituzioni degli esseri umani, hanno a che fare
con significati, azioni intenzionali e quello che sembra essere il nostro libero arbitrio. Inoltre, una
questione importante nella filosofia delle scienze se una disciplina come la psicologia possa o
meno essere scientifica. La filosofia delle scienze naturali non ha problemi di questo tipo, se
qualcosa una scienza, quella la fisica. La disciplina filosofica che si occupa della conoscenza e
della giustificazione detta filosofia della conoscenza. Le principali questioni affrontate della
filosofia della conoscenza sono. Come si distingue la conoscenza dalla mera opinione? Siamo sicuri
di conoscere qualcosa? La prima forse la questione pi importante. Se io credo qualcosa che di
fatto falso, non si pu dire che conosca qualcosa. Logicamente, questo vuol dire che la verit di
una proposizione costituisce una condizione necessaria, una condizione che deve essere soddisfatta,
perch quella proposizione sia conosciuta. La concezione tradizionale che si possa sostenere di
conoscere solo quando le nostre credenze sono adeguatamente giustificate; ovvero la conoscenza
una condizione necessaria della conoscenza, anche se la definizione tripartita della conoscenza
stata criticata e resa oggetto di dibattito. Una volta accettata la concezione secondo la quale la
conoscenza ci fornisce un qualche tipo di conoscenza, il nostro compito accettare quali teorie
scientifiche ci dicono come fatto il mondo, e determinare l'estensione della conoscenza scientifica.
La nozione di legge scientifica di estrema importanza per la comprensione della scienza. La
scienza, in sostanza, sembra dirci quale sia la natura profonda delle cose, quali siano i costituenti
del mondo e come questo funzioni. Si arrivati a pensare che la scienza abbia rimpiazzato la
metafisica non solo perch ci spiega che cosa esiste, ma perch ci dice anche ci che avviene in
termini di leggi naturali e cause e anche perch risponde a questioni filosofiche fondamentali, come
ad esempio sulla natura dello spazio e del tempo.
Capitolo 1 Induzione e induttivismo
nel tardo XVI e nel XVII secolo che, nel mondo occidentale, hanno avuto luogo sviluppi decisivi
per la nascita della scienza moderna. Fu completamente rivoluzionato lo studio dei corpi in
collisione e sotto l'influsso della gravit; a partire dal lavoro di Galileo, all'inzio del 1600, arrivando
al 1687 alle pubblicazioni di fisica matematica di Newton, questa branca della fisica divenne un
brillante esempio dei risultati della scienza. Questo periodo della storia delle idee detto
rivoluzione scientifica e comprende la rivoluzione copernicana, nome associato al periodo durante il
quale la teoria secondo cui la Terra ruota attorno al Sole. Dal punto di vista filosofico, il maggior
progresso apportato dalla rivoluzione scientifica fu la rottura con le teorie di Aristotele. Nel
Medioevo la combinazione della filosofia aristotelica con le dottrine cristiane aveva dato luogo a
una cosmologia e a un filosofia della natura (detta scolastica) che descriveva tutto, dal moto dei
pianeti al comportamento dei corpi in caduta verso la Terra. La maggior parte degli intellettuali
occidentali ne dava per scontata la parte essenziale. Secondo l'aristotelismo, la Terra e il cielo hanno
nature diverse. La Terra sottoposta a cambiamento e corruzione, imperfetta; i cieli perfetti e
immutabili, ogni cosa da essi contenuta composta da una sostanza di diversa natura, la
quintessenza, e ogni movimento circolare ed eterno. Probabilmente, l'evento pi significativo di
questo processo fu la pubblicazione, nel 1543, della teoria del moto planetario di Copernico. Egli
osserv le orbite circolari, ma pose il Sole, e non la Terra, al centro del sistema; questa teoria fu
migliorata da Kepler, secondo il quale i pianeti avevano orbite ellittiche e non circolari: fu questa la
teoria del moto planetario alla quale Newton applic la sua teoria della forza gravitazionale.

Il sistema di Copernico va contro la nostra esperienza, nel senso che, quando stiamo in piedi, non
abbiamo la sensazione che la Terra si muova: questo un esempio significativo di come le teorie
scientifiche descrivano una realt distinta dall'apparenza delle cose.
Il pi grande propagatore delle nuove scienze fu Bacone, al quale si deve la proposta esplicita di un
metodo scientifico in sostituzione di quello aristotelico. Tale metodo presentato in modo
dettagliato nel Novum Organum. Il metodo di Bacone ugualitario e collettivistico: se fosse stato
seguito da molte persone normali, piuttosto che da geni, come processo sociale avrebbe condotto a
conoscenze utili e certe sul funzionamento della natura.
La logica deduttiva lo studio degli argomenti validi e la logica aristotelica un tipo di logica
deduttiva. Da un ridotto numero di premesse (dette assiomi) possibile dedurre un numero
smisurato di conclusioni riguardo alle propriet delle figure geometriche (teoremi). Il vantaggio
della logica deduttiva che preserva la verit, vale a dire che se l'argomento valido ed ha
premesse vere, anche la sua conclusione sar vera. Lo svantaggio che la conclusione di un
argomento deduttivamente valido non pu dire niente che non sia implicito nelle premesse, per cui
non estendono la nostra conoscenza. La conoscenza del mondo naturale consiste in un argomento
deduttivo che ne dimostra la necessit causale a partire a partire dai principi primi: ogni cosa ricerca
il suo luogo naturale, il luogo naturale del fuoco alla sommit della sfera terrestre, pertante le
fiamme che rasentano la superficie terrestre vanno verso l'alto. Secondo questa concezione la
geometria e la matematica forniscono il modello di conoscenza del mondo naturale. Pertanto, le
premesse dalle quali si parte devono riguardare l'essenza delle entit rilevanti. L'obiezione scontata
che questo modello dell'acquisizione della conoscenza sul funzionamento delle cose non
attribuisce alcun ruolo all'esperienza sensoriale. Bacone propose la sua logica deduttiva per
rimpiazzare la logica aristotelica, attribuendo all'osservazione e agli esperimenti un ruolo ben pi
centrale. Bacone chiam idoli della mente le cose che possono impedire un corretto ragionamento
induttivo. I primi sono gli Idoli della trib: essi riguardano la tendenza umana a vedere nella natura
pi ordine e regolarit di quanto di fatto non vi sia. Gli Idoli della spelonca: sono le debolezze
individuali del ragionamento, dovute alla personalit, ai gusti. Gli idoli del foro sono i fattori di
disturbo che derivano dal linguaggio e dalla terminologia che ci stata insegnata, che pu essere
inadeguata, eppure influenza il modo in cui pensiamo. Infine, gli idoli del teatro sono i sistemi
filosofici che incorporano metodi scorretti per l'acquisizione della conoscenza. Il primo passo del
metodo consiste nel fare osservazioni non condizionate dai primi tre idoli. L'idea quella di
raggiungere la verit accumulando una gran quantit di dati su stati di cose particolari, per poi
procedere a conclusioni di carattere generale. I dati relativi a un dato fenomeno devono essere
raccolti in tavole: la prima la tavola dell'Essenza e della Presenza; segue la tavola della
Deviazione e dell'Assenza in Prossimit. La successiva tavola quella dei Gradi o Comparativa.
L'ultima fase del metodo l'induzione vera e propria: si tratta di studiare le informazioni riportate
sulle tavole, alla ricerca di qualcosa che sia presente in tutte le istanze del fenomeno in questione, e
assente quando il fenomeno non presente. La procedura per identificare cosa soddisfi queste
condizioni l'eliminazione. Bacone introduce il concetto di istanza cruciale: l'idea che quando
abbiamo due teorie rivali che propongono resoconti diversi della forma di una cosa, dovremmo
ideare un esperimento che abbia due possibili soli risultati, il primo dei quali sia predetto dalla
prima teoria e il secondo dei quali sia predetto dalla seconda, in modo da poter operare la scelta
osservando il risultato che di fatto si verifica. Il metodo di Bacone fondato su due pilastri,
l'osservazione e l'induzione. L'osservazione dovrebbe essere condotta senza preconcetti, i risultati
dell'osservazione sono detti asserti sperimentali che devono fungere da base per l'elaborazione di
leggi e teorie scientifiche. Molte leggi scientifiche hanno la forma di generalizzazioni universali,
ovvero asserti che generalizzano sulle propriet di tutti gli oggetti di un certo tipo. La forma di
induzione pi semplice l'induzione enumerativa, la quale consiste nell'osservare che un gran
numero di istanze di un dato fenomeno possiede una certa caratteristica e nell'inferire che il
fenomeno ha sempre quella propriet. Secondo l'induttivismo ingenuo possiamo inferire con
certezza quando ad esempio si condotto un gran numero di osservazioni degli X, sotto un gran
numero di condizioni, e si trovato che tutti gli X sono Y, e non si trovato alcun caso che

contraddicesse la generalizzazione universale tutti gli X sono Y. Questo noto come il Principio
d'induzione.
Capitolo 2 Il problema dell'induzione e altri problemi dell'induttivismo
Per valutare l'induttivismo come teoria della metodologia scientifica dobbiamo distinguere due
questioni: l'induttivismo stato davvero il metodo seguito dai singoli scienziati nel corso della
storia della scienza? Il metodo induttivo, se fosse utilizzato, produrrebbe conoscenza?
La prima domanda richiede ricerche empiriche. La seconda tipicamente filosofica e riguarda la
questione se il metodo induttivo sia in grado di giustificare le credenze che sono prodotte in
conformit ad esso. La Ricerca sull'intelletto umano di Hume il testo classico per la discussione
del problema dell'induzione. Hume connette l'induzione alla natura della causalit e alle leggi di
natura, influenzando lo sviluppo della filosofia occidentale. Hume distingue tra due tipi di
proposizioni, quelle che riguardano relazioni tra le idee e quelle che riguardano questioni di fatto.
Le prime sono proposizioni il cui contenuto limitato alle relazioni tra i nostri concetti e idee. Le
proposizioni che riguardano questioni di fatto sono quelle che vanno oltre la natura dei nostri
concetti e ci danno qualche informazione su come sia fatto il mondo. Secondo Hume ogni
proposizione vera relativa a relazioni tra idee pu essere provata deduttivamente, perch la sua
negazione implica una contraddizione. Dall'altro Hume sosteneva che le questioni di fatto potessero
essere conosciute solo attraverso i sensi, dal momento che le idee coinvolte sono irrelate dal punto
di vista logico e pertanto tali proposizioni non possono essere provate per via deduttiva. La
distinzione di Hume tra questioni di fatto e relazioni tra idee corrispondono grosso modo alla
distinzione di Kant tra verit sintetiche e verit analitiche. Hume sosteneva che ogni ragionamento
che vada oltre alle esperienze passate e presenti basato su causa-effetto. L'unico modo di
conoscere causa ed effetto l'esperienza. Questa conoscenza il risultato dell'estrapolazione del
comportamento futuro del mondo a partire dal suo comportamento in passato. La causalit consiste
in ci che conosciuto come costantemente congiunto: che A causi B significa che nella nostra
esperienza A costantemente congiunto con B. L'ulteriore analisi a cui Hume sottopone il concetto
di causa rivela che un'altra sua importante caratteristica la contiguit spazio-temporale. Quando
viene postulata una connessione causale tra degli eventi, frequente che questi siano ravvicinati
nello spazio o nel tempo, o che siano connessi da una catena di cause ed effetti, ogni anello della
quale ravvicinato al successivo nello spazio e nel tempo. Un ulteriore caratteristica delle relazioni
causali che solitamente la causa precede nel tempo il suo effetto. Non del tutto chiaro se sia
sempre cos perch talvolta sembra che le cause e gli effetti siano simultanei come quando diciamo
che la pesante trave di quercia la causa del fatto che il tetto stia su. La critica di Hume alla
causalit: consideriamo una palla da biliardo X colpisce la palla Y e Y si allontana a una certa
velocit. Diciamo che X causa il moto di Y. X ha fatto muovere Y, X ha prodotto il moto di Y, Y si
dovuta muovere perch stata colpita da X. Hume consapevole che molti filosofi hanno sostenuto
che il significato di X causa Y che tra l'accadere di X e l'accadere di Y intercorra una relazione
necessaria; tuttavia egli sostiene che questa sia di fatto una nozione che non comprendiamo. Dal
momento che non abbiamo nessuna esperienza di una connessione necessaria, ma solo di una
congiunzione costante. Hume sostiene che la nostra esperienza non contenga nulla che ci possa
permettere di scegliere tra due teorie rivali: questo argomento noto come il rasoio di Occam,
secondo il quale quando due teorie sono in competizione, se sotto ogni punto di vista si
equivalgono, dovremmo scegliere la pi semplice. Ne segue che il ragionamento induttivo per
quanto fondato su ragionamento di causa-effetto, non ha alcun fondamento, perch sempre
possibile per una relazione causale essere diversa in futuro. Hume sostiene che l'unica
giustificazione che abbiamo per credere che domani sorger il sole consiste nel fatto che tali
credenze, fino ad ora, sono risultate vere, tuttavia questa non una giustificazione. Molte delle
nostre credenze sembrano essere basate su qualcosa di simile al principio di induzione che autorizza
l'inferenza da osservazioni particolari a una generalizzazione solo se abbiamo fatto un gran numero
di osservazioni, ma tutte la esemplificano. Tuttavia questo principio esprime anche la tacita

assunzione dell'uniformit dei fenomeni naturali nello spazio e nel tempo.


Potremmo cercare di difendere l'induzione attraverso un argomento induttivo: l'induzione ha
funzionato in molte occasioni e in varie condizioni, pertanto funziona in generale. Hume replica che
c' un vizio di circolarit: si sta mettendo in dubbio il ragionamento induttivo, pertanto illegittimo
affidarsi a un argomento induttivo per difendere l'induzione.
1 l'induzione razionale per definizione: la maggior parte delle persone dir che razionale fondare
le proprie credenze sul futuro sulla conoscenza che abbiamo del passato, pertanto che l'induzione
sia razionale implicito in ci che tutti intendono con razionale. Utilizzando la nozione di
razionalit, intendiamo anche una componente normativa (o prescrittiva), e non solo una
componente descrittiva. Cio diciamo che un ragionamento razionale perch pensiamo che si
conformi a qualche standard, e che sia il tipo di ragionamento che tende a condurci alla verit e ad
allontanarci dalla falsit. Si pu anche sostenere che siamo pi certi della generale razionalit
dell'induzione di quanto non siamo certi della validit degli argomenti che Hume le ha rivolto
contro. Possiamo trattare l'argomento di Hume come una sorta di paradosso che conduce a una
conclusione che deve essere falsa (che l'induzione sia sempre irrazionale) e, pertanto trarne motivo
per credere che una o pi premesse dell'argomento siano false.
2 Hume richiede una difesa deduttiva dell'induzione, il che irragionevole: qualche filosofo ha
accusato Hume di richiedere una difesa deduttiva dell'induzione. Questi sostengono che Hume
assuma senza argomento che la deduzione costituisca l'unica possibile fonte di giustificazione per le
credenze di cui non abbiamo esperienza diretta o che non la ricordiamo. La diagnosi di Hume che
le inferenze induttive dipendano dal principio secondo il quale la natura uniforme. Lo scetticismo
nei confronti dell'induzione cos motivato dal fatto che non abbiamo ragioni indipendenti per
accettare questo principio, cio non abbiamo ragioni per credere che la natura sia uniforme nel
senso che il futuro assomiglier al passato.
3 l'induzione giustificata dalla teoria della probabilit: molti filosofi hanno cercato di risolvere il
problema dell'induzione ricorrendo alla teoria matematica della probabilit. I tentativi pi dettagliati
e sistematici sono quelli di Carnap e Reichenbach. Entrambi hanno cercato di elaborare una teoria a
priori della logica induttiva attraverso la quale poter calcolare il grado di conferma di ogni
particolare ipotesi. Ne segue che il ricorso alla teoria della probabilit deve sempre appoggiarsi a
principi che ne garantiscano l'applicabilit al mondo, essendo in questo modo il problema spostato
alla questione di cosa giustifichi la nostra convinzione che tali principi verranno anche in futuro.
4 l'induzione giustificata da un principio di induzione o di uniformit della natura: una risposta al
problema dell'induzione, disponibile in varie forme, consiste nell'adottare qualche principio e
nell'utilizzarlo come premessa negli argomenti induttivi, in modo da renderli deduttivamente validi.
Immaginiamo di aver osservato in pi occasioni che il sodio brucia con una fiamma arancione se
viene scaldato con un becco bunsen. Tutti i campioni di sodio bruceranno con una fiamma
arancione quando verranno scaldati con un becco bunsen. L'argomento non valido, ma lo diventa
se aggiungiamo la seguente premessa: ogni qual volta si osserva che N A sono anche B, tutti gli A
sono B, e si sostituisce A con campione di sodio e B con oggetti che bruciano con una fiamma
arancione se scaldati con un becco bunsen. L'argomento ora valido ma l'ovvio problema che non
si ancora specificato quanto debba essere il numero N. Qualsiasi numero si scelga sembrer
arbitrario e il nostro argomento avr la seguente caratteristica fortemente controintuitiva; non
avremo nessuna ragione per credere che tutti gli A siano B finch non avremo raggiunto un numero
N di osservazioni; quando lo avremo raggiunto saremo completamente certi del fatto che tutti gli A
siano B e qualsiasi ulteriore osservazione diverr del tutto irrilevante. Si potrebbe rimediare a
questo problema indebolendo la conclusione, in modo che questa asserisca che probabilmente tutti
gli A sono B, e stipulando che la probabilit in questione sia direttamente proporzionale al numero
N. L'altro ovvio problema che sembriamo privi di qualsiasi giustificazione per quanto riguarda il
principio di induzione proposto. Quindi, se Hume ha ragione, deve essere giustificato sulla base
dell'esperienza, riportandoci cos al problema della circolarit. Tuttavia Hume potrebbe aver torto, e
qualche verit sintetica potrebbe essere conosciuta a priori. Questa la risposta al problema
dell'induzione ispirata all'idea kantiana che certi principi sono conoscibili a priori perch di fatto

questi sono descrizioni del modo in cui funziona la nostra mente ed esprimono la condizione di
possibilit di qualsiasi esperienza del mondo. Kant ha sostenuto che fossero conosciuti in questo
modo il principio secondo il quale ogni evento ha una causa e, forse anche le leggi specifiche della
meccanica newtoniana. Il problema, tuttavia, si ripropose con urgenza quando la meccanica
newtoniana fu falsificata sulla base delle sue previsioni scorrette circa l'osservazione di corpi con
velocit relative molto alte e circa il comportamento di oggetti molto piccoli e molto grandi. La
convinzione kantiana che si dia conoscenza sintetica a priori sembra ottimistica.
5 l'argomento di Hume troppo generale. Dal momento che non fa riferimento a niente di specifico
relativamente alle nostre pratiche induttive, pu basarsi solo sul fatto che l'induzione non la
deduzione. Questa risposta sostiene che l'argomento di Hume pretende di applicarsi a ogni tipo di
inferenza induttiva, ma che l'analisi delle pratiche induttive offerta da Hume troppo semplicistica.
In certi casi sufficiente osservare qualcosa solo per poco tempo per concludere che si comporter
sempre allo stesso modo.
6 l'induzione non altro che un tipo di inferenza alla migliore spiegazione, e questa giustificata:
l'inferenza alla miglior spiegazione, anche detta abduzione, il tipo di ragionamento che
impieghiamo quando inferiamo qualcosa sulla base del fatto che questo costituisce la miglior
spiegazione di fatti gi noti. Si sostiene che certe ipotesi scientifiche siano adottate per il loro potere
esplicativo; ad esempio, i geologi adottano l'ipotesi che i continenti non siano ancorati alla
superficie terrestre, ma si muovano lentamente l'uno rispetto all'altro, perch tale ipotesi spiega le
caratteristiche comuni di alcune rocce distanti oggi le une dalle altre migliaia di miglia.
7 vi sono realmente connessioni necessarie che possiamo scoprire: se tra gli eventi intercorrono
davvero connessioni necessarie, queste garantiranno che la regolarit che osserviamo continueranno
a valere anche in futuro. L'idea pu essere elaborata in termini di leggi di natura o in termini di
poteri causali. Un modo per difendere questa tesi sostenere nonostante quanto Hume dice a
riguardo, che le connessioni necessarie non debbano essere osservate. Si potrebbe sostenere che
conosciamo queste connessioni necessarie basandoci sull'inferenza alla miglior spiegazione.
8 l'induzione pu essere giustificata induttivamente perch anche la deduzione pu essere
giustificata solo in modo circolare (cio deduttivamente): si tratta di una versione pi sofisticata
della difesa circolare dell'induzione presa in considerazione, e rifiutata da Hume. Un modo
ricorrente di esporre l'argomento di Hume il seguente: l'induzione deve essere giustificata
attraverso un argomento deduttivo o attraverso un argomento induttivo. Un argomento deduttivo
che concludesse che l'induzione giustificata sarebbe valido solo se, tra le sue premesse, figurasse
l'assunzione che l'induzione giustificata. Un argomento induttivo, invece, sar in grado di
persuaderci del fatto che l'induzione giustificata solo se gi accettiamo che gli argomenti induttivi
supportino le proprie conclusioni. Pertanto non si pu dare una difesa dell'induzione non circolare o
non compromessa da una petitio principii.
9 ritirata alla conoscenza probabile: questa strategia consiste nel modificare il principio di
induzione, in modo che questo garantisca solo la conclusione secondo la quale tutti gli A
probabilmente posseggono le propriet B. Il probabilista sostiene che ci si possa avvicinare molto
alla certezza, e che questo sia sufficiente per giustificare la conoscenza scientifica. Alcune versioni
di questa risposta fanno uso della teoria dei gradi di credenza, secondo la quale la credenza non
questione di tutto o di nulla, ma una questione di gradi. I gradi di credenza sono solitamente
associati alla disposizione a scommettere a diverse quotazioni.
10 concedere che l'induzione sia ingiustificata e offrire un resoconto della conoscenza, in particolare
di quella scientifica, che faccia a meno dell'inferenza induttiva. Questa la risposta radicale al
problema dell'induzione proposta da Popper. Nel loro insieme tutte queste repliche sembrano offrire
una risposta sufficiente, tuttavia dovremmo ancora offrire un qualche resoconto positivo di cosa
voglia dire per qualcosa costituire evidenza in favore di un'ipotesi. Tale resoconto detto teoria
della conferma.
Nei suoi celebrati Principia Newton presenta le tre leggi del moto e la legge di gravitazione
universale, e procede utilizzandole per spiegare le leggi del moto planetario di Keplero. La legge
gravitazionale asserisce che tutti i corpi dotati di massa si attraggono l'un l'altro con una forza

direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato


della loro distanza. Newton distingue tra la legge stessa e una qualche teoria sulla causa o
spiegazione della legge, sostenendo di aver inferito la legge dai dati e di aver sospeso il giudizio
rispetto alla causa perch non possibile inferire un resoconto di cosa causi la forza di gravit in
conformit alla legge. Il principale problema del resoconto offerto da Newton stato segnalato da
Duhem: le leggi di Kepleto dicono che i pianeti, muovendosi intorno al sole, descrivono delle ellissi
perfette, ma dal momento che tutti i pianeti esercitano nei confronti degli altri e nei confronti del
sole la propria forza gravitazionale, la legge di gravitazione di Newton prevede che le orbite dei
pianeti non siano mai ellissi perfette. Pertanto difficile che Newton abbia inferito le sue leggi
direttamente da quelle di Keplero, se queste ultime sono di fatto incompatibili con le prime.
Un altro esempio per sostenere l'induttivismo la scoperta di Keplero delle leggi del moto
planetario. Brahe aveva realizzato migliaia di osservazioni dei pianeti: Keplero utilizz questi dati
per elaborare le sue tre leggi, cos che, almeno in questo caso, sembrerebbe che una teoria sia stata
inferita da una massa di dati osservativi. Tuttavia, Keplero non pu essersi limitato a trarre leggi dai
dati; stato piuttosto motivato a cercare un modello relativamente semplice del moto planetario
dalla sua credenza in qualche modo mistica nell'eleganza della forma matematica del moto dei
pianeti, da lui concepita come armonia delle sfere.
Quando stabiliamo quali circostanze variare e quali no ci basiamo sulla nostra conoscenza di
sfondo. Idealizzazione: la scienza spesso procede attraverso lo studio di sistemi ideali da cui sono
stati esclusi vari fattori di disturbo, per poi applicare le leggi risultanti ai sistemi reali modificandole
a seconda delle esigenze. Non si pu semplicemente partire dai dati, necessario avere indicazioni
su quali dati siano rilevanti e su quali debbano essere osservati, cos come su quali fattori causali
noti debbano essere presi in considerazione e quali no. Il problema stato identificato da Goodman
ed noto come il nuovo enigma dell'induzione. Egli procede come segue: supponiamo che il futuro
sia come il passato; osserviamo che ogni smeraldo visto in passato verde e inferiamo che tutti gli
smeraldi sono verdi. Si consideri ora la propriet bluerde; laddove qualcosa blerde solo se stato
osservato prima del 2007 ed verde, o se stato osservato solo dopo il 2007 blu. Secondo questa
definizione tutti gli smeraldi osservati fino ad oggi sono blerdi; ci vuol dire che i dati a nostra
disposizione supportano la generalizzazione secondo la quale tutti gli smeraldi sono blerdi tanto
quanto supportano la generalizzazione tutti gli smeraldi sono verdi. Il punto di Goodman che
abbiamo bisogno di un metodo per distinguere i predicati con cui possiamo legittimamente svolgere
le nostre inferenze induttive da quelli con cui non possiamo. La possibilit di predicati del tipo
blerde mostra che l'uso del linguaggio sbagliato nel registrare i risultati pu creare dei problemi.
Capitolo 3 Il falsificazionismo
Popper ha influenzato la filosofia della scienza del XX secolo e il suo falsificazionismo il pi
popolare tra gli scienziati. Popper ha svolto anche un'importante funzione nel criticare
intellettualmente il marxismo. Il suo interesse per la filosofia della scienza ha preso le mosse dalla
ricerca di una demarcazione tra scienza e pseudoscienza. Popper si rese conto di quanto fosse facile
pensare al marxismo e alla psicoanalisi come scienze di notevole successo se si partiva
dall'assunzione che la conoscenza scientifica proceda, e sia giustificata, tramite l'accumulazione
delle istanze positive di teorie e leggi. Il problema dal punto di vista di Popper, consisteva nel fatto
che fin troppo facile accumulare istanze positive a sostegno di una teoria, soprattutto se le sue
asserzioni sono cos generali da non sembrare escludere niente. Popper sostiene che i marxisti
vedono in ogni sciopero una prova della teoria della lotta di classe, e che la psicoanalisi tratta ogni
caso di nevrosi come ulteriore evidenza per le dottrine di Freud. Il problema di queste teorie che
non avranno previsioni precise, e che pertanto, possono rendere conto del manifestarsi di qualche
fenomeno. La critica di Popper alla psicoanalisi che i principi fondamentali di questa teoria sono
cos generali da risultare compatibili con ogni particolare osservazione. La preoccupazione di
Popper rispetto all'idea che la conferma sia fondamentale per il metodo scientifico che quando si
lavora entro una teoria facile trovare istanze confermative, soprattutto se la teoria generica.

Al contrario Popper fu impressionato dalla conferma sperimentale della teoria generale della
relativit di Einstein; la cosa ammirevole per Popper era che la teoria aveva avanzato una
predizione rischiosa, cio una predizione che avrebbe potuto rivelarsi falsa. Il tipo di predizioni pi
convincente per Popper rappresentato dalla cosiddette nuove previsioni, cio previsioni
riguardanti nuovi fenomeni e nuove entit. Popper quindi sosteneva che la conferma che si suppone
una teoria riceva un'istanza che si conforma ad essa vale davvero qualcosa solo se la previsione di
tale istanza da parte della teoria rischiosa; ovvero, se un falsificatore potenziale della teoria. Le
teorie come il marxismo e la psicoanalisi sembrano precludere la possibilit della critica ed
proprio questa la caratteristica che Popper riteneva anatema per la scienza. Per questo Popper
giunse alla convinzione che la falsificazione e non la conferma costituisca il fondamento del metodo
scientifico. La soluzione di Popper al problema dell'induzione consiste semplicemente nel sostenere
che tale problema non segue che la conoscenza scientifica sia priva di giustificazione. Popper fa
notare che la conferma e la falsificazione di una generalizzazione universale sono logicamente
asimmetriche. Popper sosteneva che la scienza impegnata a falsificare le teorie e pertanto credeva
che la scienza potesse fare a meno dell'induzione dal momento che l'inferenza da un'istanza
falsificante alla falsit di una teoria di natura puramente deduttiva. La metodologia scientifica di
Popper spesso detta il metodo delle congetture e confutazioni. Congetture audaci sono quelle da
cui possibile dedurre le predizioni di tipo nuovo. Secondo Popper la scienza si evolve sulla base di
un meccanismo analogo alla selezione naturale e gli scienziati imparano dai propri errori. Popper
abbracciava la posizione filosofica detta falllibilismo, secondo la quale tutta la nostra conoscenza
del mondo provvisoria, e sottoposta a correzioni in futuro. Popper riteneva che le teorie potessere
essere ordinate in ragione del loro grado di falsificabilit, e che questo costituisse la misura
autentica del loro contenuto empirico. Una teoria tanto migliore quanto pi falsificabile.
Gli scienziati deducono una previsione da un'ipotesi, e se, una volta portato a termine l'esperimento,
l'osservazione la contraddice, l'ipotesi falsificata. T implica e, dove e pu essere deciso tramite
l'osservazione; e falso; T falsa. Si supponga che T sia la teoria secondo la quale tutti i metalli si
espandono quando sono riscaldati e, che e sia l'asserto secondo il quale un particolare campione di
rame si espande quando viene riscaldato. T implica e, e quindi se e falso T falsa.
Duhem discute un esempio reale considerato cruciale nell'ottica: nel XVIII secolo erano diffuse due
teorie rivali quella di Newton che sosteneva che la luce consistesse di un flusso di minuscole
particelle in rapido movimento; la seconda di Huygens che sosteneva che la luce consistesse di una
perturbazione ad onda che si propaga attraverso un mezzo sconosciuto che permea l'intero spazio.
La teoria di Newton prediceva che la velocit con la quale la luce si propaga nell'acqua sarebbe
risultata superiore a quella con la quale la luce si propaga nell'aria. Fu allestito l'esperimento: la
luce, emessa dalla stessa fonte, sarebbe passata sia nell'acqua sia nell'aria, attraverso l'uso di uno
specchio rotante sarebbe stato poi reso possibile far s che la luce formasse due macchie, una verde
e una priva di colore. Se la luce si fosse propagata pi velocemente nell'acqua, la macchia priva di
colore si sarebbe trovata alla destra di quella verde e viceversa in caso contrario. Quando
l'esperimento fu portato a termine, risult che la luce si era propagata pi lentamente nell'acqua.
Quine ha sostenuto che di fronte ai dati che falsificano una teoria fisica sempre possibile scegliere
di abbandonare la logica e di conservare la teoria. Quine sostiene che sarebbe ragionevole
abbandonare una legge logica, o cambiare il significato dei nostri termini, se ci risultasse pi
conveniente che abbandonare una particolare teoria; in questo modo egli rifiuta la distinzione
kantiana delle verit sintetiche o analitiche.
Le principali critiche al falsificazionismo
1 alcune parti legittime della scienza non sembrano essere falsificabili e queste parti si dividono in 4
categorie: - asserti probabilistici: essi non possono essere falsificati perch possibile che l'esito di
un esperimento sia un evento improbabile che non contraddirebbe l'asserto iniziale. - asserti
esistenziali: le teorie scientifiche asseriscono l'esistenza di cose, ma se non si riesce a trovare una
cosa, gli asserti che ne asseriscono l'esistenza non sono per ci stesso giustificati. - principi
scientifici non falsificabili: si pu sostenere che alcuni principi possano essere considerati parte
della conoscenza scientifica come ad esempio il principio di conservazione dell'energia. - l'ipotesi

della selezione naturale: Popper si mostrato critico nei confronti della teoria dell'evoluzione,
perch riteneva tautologica l'ipotesi della sopravvivenza della specie pi adatte, ovvero vera per
definizione e non falsificabile.
2 il falsificazionismo non a sua volta falsificabile: Popper lo ammette, ma replica che la sua teoria
non deve esserlo, perch una teoria filosofica, o logica, del metodo scientifico, e pertanto non
essa stessa una teoria scientifica.
3 la nozione di grado di falsificazione problematica: l'insieme dei falsificatori potenziali di una
generalizzazione universale sempre infinito, per cui non pu esserci una misura assoluta della
falsificabilit, ma solo una misura relativa.
4 Popper non in grado di spiegare le nostre aspettative sul futuro. la convinzione che certe cause
abbiano certi effetti, e non la convinzione che potrebbero non averli, a informare le nostre azioni.
La maggior parte dei filosofi ritiene che la soluzione di questo problema non consista nello stabilire
se sia pi razionale scendere per le scale piuttosto che buttarsi gi dalla finestra, ma nel capire
perch lo sia. Popper replica introducendo la nozione di corroborazione, una teoria corroborata se
una congettura audace da cui sono state derivate nuove predizioni che non sono state falsificate.
5 talvolta gli scienziati ignorano la falsificazione: quando gli scienziati hanno tra le mani una teoria
di successo, l'esistenza di osservazioni falsificanti non costituisca una ragione sufficiente per
abbandonare la teoria in mancanza di alternative migliori.
Capitolo 4 Rivoluzioni e razionalit
I principali avversari di Popper nella filosofia della scienza della prima met del XX secolo hanno
tutti adottato una qualche versione sofisticata di induttivismo. La concezione standard nella filosofia
della scienza dopo la Seconda guerra mondiale, detta empirismo logico era caratterizzata
dall'empirismo logico di Carnap e poi Lakatos la cui scienza era induttiva e razionale. Tuttavia sia
Popper sia i positivisti logici e gli empiristi logici condividevano molte tesi circa la natura della
scienza. Tra queste: - la scienza cumulativa, ovvero gli scienziati costruiscono partendo dai
risultati dei loro predecessori; - la scienza unificata, nel senso che esiste un unico insieme di
metodi fondamentali che valgono per tutte le scienze e nel senso che le scienze naturali sono quanto
meno di principio tutte riducibili alla fisica; - esiste una distinzione epistemologica sostanziale tra il
contesto della scoperta e il contesto della giustificazione. L'evidenza su cui si fonda la conoscenza
scientifica dovrebbe essere valutata indipendentemente dalle origini causali delle teorie e delle
osservazioni in questione. - la valutazione scientifica di ogni evidenza a sostegno di una data ipotesi
presuppone una sottostante logica della conferma, o della falsificazione. Tale valutazioni sono
avalutative nel senso che sono indipendenti dalle convinzioni non scientifiche e dalle simpatie
personali degli scienziati. - c' una demarcazione netta tra le teorie scientifiche e altri sistemi di
credenze; - c' una distinzione netta tra termini osservativi e termini teorici; i termini scientifici
hanno un significato definito e preciso.
Il libro di Khun La struttura delle rivoluzioni scientifiche offr un modo radicalmente diverso di
concepire la metodologia e la conoscenza scientifica. Per Khun le credenze abbandonate non sono
non scientifiche; pertanto la storia della scienza non caratterizzata dalla costante accumulazione di
conoscenza, ma spesso comporta l'abbandono in blocco delle teorie del passato. Secondo Khun la
valutazione delle teorie dipende da particolari circostanze storiche e la sua analisi della relazione tra
teoria e osservazione suggerisce che le teorie infettino cos tanto i dati da non rendere possibile
un'osservazione che sia oggettiva e neutrale rispetto alle teorie stesse. Probabilmente il concetto pi
importante della filosofia di Khun quello di paradigma scientifico di cui possibile identificare
due sue applicazioni: il paradigma nel senso di matrice disciplinare e il paradigma nel senso di
esemplare. Una matrice disciplinare l'insieme delle risposte a queste domande che gli scienziati
apprendono nel corso della formazione che li prepara alla ricerca e che fornisce il quadro di
riferimento, al cui interno opera la scienza. Gli esemplari sono le parti di successo della scienza che
tutti devono imparare e forniscono loro il modello del futuro sviluppo della loro disciplina. Si
consideri il paradigma della fisica classica, essa consiste in: valori di sfondo, come la preferenza per

spiegazioni causali efficienti e per teorie che consentono la formulazione di previsioni quantitative
controllabili; la concezione metafisica del mondo secondo la quale l'immagine fondamentale del
mondo una macchina gigantesca. Le leggi newtoniane costituiscono i principi fondamentali del
paradigma, le tecniche matematiche standard utilizzate per applicare tali leggi e l'esemplare dei
Principia di Newton. Khun definisce la maggior parte della scienza scienza normale, perch
condotta nell'ambito di un paradigma assodato. Essa consiste nell'elaborazione e nell'estensione del
successo del paradigma, ovvero nel raccogliere un gran numero di nuove osservazioni e nel renderle
compatibili con le teorie accettate, e nel risolvere problemi minori all'interno del paradigma. Per
questo motivo si dice che la scienza normale sia un'attivit di risoluzione di rompicapo, dove le
regole per risolvere il rompicapo sono molto rigide e determinate dal paradigma. Non si abbandona
un paradigma solo perch contraddetto da qualche evidenza. Talvolta accade che gli scienziati
realizzino che certe anomali sono destinate a restare ed esse vengono definite paradossi concettuali
o falsificazioni sperimentali. Quando il numero di anomali si accumula negli anni e inizia a
crescere, probabile che qualche scienziato inizi a mettere in discussione alcune delle assunzioni
fondamentali del paradigma e inizi a speculare intorno ad alternative. Ci equivale alla ricerca di un
nuovo paradigma, cio di un nuovo modo di pensare al mondo. Una crisi probabile se le anomalie
in questione vanno a toccare i principi pi fondamentali del paradigma, o se impediscono
l'applicazione del paradigma. Se si verifica una crisi, e se la comunit scientifica adotta un nuovo
paradigma, ci che avviene una rivoluzione o cambiamento paradigmatico. Quando avviene una
rivoluzione il vecchio paradigma rimpiazzato integralmente. Khun sostiene che la struttura delle
rivoluzioni minori ha molto in comune con quella delle rivoluzioni pi ampie. Un esempio dato
dalla sostituzione della teoria del flogisto con la teoria dell'ossidazione a proposito della
combustione. Si credeva che il flogisto fosse una sostanza rilasciata dai materiali che bruciano.
Molte cose, come il legno, perdono peso quando bruciano, altre invece come alcuni metalli
incrementano il loro peso e questo rappresentava un'anomalia per la teoria. Tuttavia, molti chimici
non la abbandonarono. Alcuni avanzarono la supposizione che il flogisto avesse peso negativo o che
la spiegazione dell'aumento del peso risiedesse nel fatto che quando un corpo brucia, e da esso fuori
esce il flogisto, al suo interno si insinuano particelle di fuoco. La teoria del flogisto and in crisi e il
cambiamento paradigmatico fu avviato da Lavoisier secondo il quale il flogisto non esiste e la
combustione comporta l'aumento dell'ossigeno. In seguito alla rivoluzione, si diffuse la convinzione
che l'ossigeno non fosse che uno tra i vari gas che costituiscono l'aria.
Se per Popper la scienza in uno stato di rivoluzione permanente, caratterizzato dal continuo
controllo esercitato nei confronti dei principi fondamentali, per Khun al contrario le rivoluzioni
sono eventi rari e la scienza di tipo normale. Per Khun la scienza va inquadrata nel suo contesto
storico e sociale, il che vuol dire che il cambiamento scientifico non pu essere adeguatamente
compreso se non si tiene conto delle forze sociali che contribuiscono a riprodurlo.
Per descrivere oggetti osservabili talvolta utilizziamo il linguaggio teorico, sembra cio che il nostro
linguaggio sia in gran parte carico di teoria e che pertanto descriviamo spesso esempi di
osservazione diretta di casi nei quali abbiamo inferito semplicemente la presenza di qualcosa.
Churchland sostiene che la percezione sia plastica nel senso che la natura e il contenuto della
percezione sensoriale siano determinati dalle teorie alle quali siamo abituati a pensare e tramite le
quali descriviamo il mondo: impariamo dagli altri a percepire il mondo come lo percepisce
chiunque altro. Fodor sostiene una concezione opposta: dati gli stessi stimoli, due organismi con la
stessa psicologia sensoriale/percettiva osserveranno generalmente la stessa cosa. Fodor sostiene che
parte delle nostre credenze sia direttamente fissata dall'osservazione, cio tramite l'attivazione dei
sensi, e che sia distinta dalle credenze ottenute per inferenza. Talvolta non vediamo sempre ci che
ci aspettiamo di vedere, si consideri l'esempio dell'illusione di Muller-Lyer. Hanson sosteneva che
l'esperienza visiva di due osservatori pu essere diversa anche se le immagini retiniche di entrambi
sono le stesse. (vedi disegno papera-coniglio).
Incommensurabilit un termine matematico che designa la mancanza di senso comune. stato
adottato da Khun e da Feyeraben, i quali hanno sostenuto che le teorie scientifiche che si succedono
sono spesso incommensurabili, nel senso che non esiste un modo neutrale per valutare i loro

rispettivi meriti. Una delle idee pi radicali che si posso trarre dal lavoro di Khun la dipendenza
del paradigma retrostante di ci che si considera evidenza entro un dato dominio. Si pu interpretare
Khun come se dicesse che il cosiddetto progresso scientifico sia guidato dalla psicologia di massa, e
che la conferma empirica di una teoria non sia altro che una finzione retorica (da tale tesi ha preso
le mosse il cosiddetto programma forte nella sociologia della scienza, il cui scopo di spiegare il
mutamento scientifico sulla base di forze psicologiche e sociali). Molti hanno utilizzato gli
argomenti di Khun per sostenere ci che i filosofi chiamano relativismo sulla conoscenza
scientifica, posizione secondo la quale le verit contenute nelle teorie scientifiche sono determinate
da forze sociali. Secondo una forma semplice di relativismo epistemologico, una particolare teoria
fisica o biologica potrebbe essere accettata entro la comunit di fisici o biologi, da chi occupa
posizioni di rilievo ed in grado di esercitare la propria influenza. Khun sostiene che tutti i
paradigmi condividano i seguenti cinque valori fondamentali: nell'ambito del proprio dominio una
teoria deve essere empiricamente accurata; una teoria deve essere coerente con le altre teorie
accettate, deve avere un'ampia portata, e non limitarsi a rendere conto dei fatti che chiamata a
spiegare; deve essere il pi semplice possibile e deve essere feconda, nel senso che deve fornire la
struttura di riferimento per la continuazione della ricerca.
Capitolo 5 Il realismo scientifico
Il realismo scientifico la concezione secondo la quale dovremmo credere nell'esistenza delle entit
inosservabili postulate dalle nostre migliori teorie scientifiche. Il fisico Eddington illustra la
distinzione tra apparenza e realt nella sua famosa discussione delle due tavole: l'una mi familiare,
oggetto comune di quell'ambiente che chiamo mondo. La tavola n2 la mia tavola scientifica e si
tratta di una conoscenza pi recente. Eddington distingue tra il mondo del senso comune e il mondo
come descritto dalla scienza. La descrizione scientifica suggerisce che la realt del senso comune
sia illusoria. L'immagine fondamentale utilizzata da molti autori del passato rappresenta la natura
come un gigantesco orologio meccanico. Il punto di tali immagini che le parti di un orologio
meccanico non lavorano in armonia tra loro perch sono coordinate da misteriosi moti naturali o
guidate da cause finali, ma perch ciascuna comunica per contatto il suo moto alle parti adiacenti. Si
cominci a ritenere possibile spiegare il comportamento delle cose sulla base del moto delle
particelle che le compongono, piuttosto che sulla base di forze occulte. Era sempre pi diffuso il
materialismo, secondo il quale esisterebbe una sola sostanza, la materia, e l'anima, essendo la mente
umana il prodotto del movimento della materia, non sarebbe una sostanza immateriale separata dal
corpo. Le propriet primarie sono le propriet che le cose non solo sembrano possedere, ma che
possiedono anche in realt. Le propriet secondarie sono le propriet che gli oggetti sembrano
possedere, ma che non possiedono in se stessi, ma solo nella mente degli osservatori. Ci sono molti
argomenti per stabilire la distinzione fra questi due tipi di propriet: uno invoca la relativit e la
variabilit del modo in cui le cose appaiono a diversi osservatori in tempi diversi. Berkeley propose
l'esempio delle tre bacinelle d'acqua. Locke distingue tra l'essenza reale e l'essenza nominale di una
cosa. L'essenza nominale non che l'idea astratta e generale che ne abbiamo; essa basata sul modo
in cui quella cosa ci appare. L'essenza reale di una cosa coincide con la sua sottostante natura. Egli
ritiene che i singoli pezzi conservino la propria massa, la propria impenetrabilit ed estensione
spaziale, indipendentemente da ci che gli facciamo e dal fatto che li osserviamo. Locke ne
conclude che le propriet primarie esistano indipendentemente dall'essere percepite, ma che non
percepite le propriet secondarie non esistono. Quindi queste propriet secondarie sono una
disposizione a produrre in noi un certo tipo di sensazioni.
Il realismo metafisico la concezione secondo la quale il linguaggio ordinario si riferisce e talvolta
asserisce cose vere su, un mondo indipendente dalla mente. Il problema sollevato dal realismo
metafisico che la conoscenza del mondo esterno difficilmente compatibile con la concezione
empirista della conoscenza e della percezione.
Il realismo diretto dice che ci sono oggetti esterni che esistono indipendentemente dalla mente e che
percepiamo direttamente attraverso i sensi.

Tuttavia, secondo molti filosofi noi percepiamo le rappresentazioni di quegli oggetti prodotte dalla
mente. Un altro celebre argomento per negare la tesi secondo la quale percepiamo direttamente gli
oggetti esterni l'argomento dell'illusione: si prenda il caso di un bastone dritto che immerso
nell'acqua ci appare spezzato. Ci dimostra che i sensi non ci danno una conoscenza diretta degli
oggetti. La cosa percepita e chi percepisce sono connessi da una catena di cause, e passa del tempo
dal momento in cui l'oggetto emette la luce e quando si vede qualcosa. Queste considerazioni
sembrano sufficienti per negare che la percezione sia diretta e che la percezione mediata
dall'immagine che si produce sulla retina. Ideismo: non percepiamo direttamente gli oggetti esterni,
ma le idee e le rappresentazioni del mondo nella nostra mente. Secondo gli empiristi inglesi la
mente non direttamente consapevole degli oggetti del mondo, ma di quelle che chiamano idee o
impressioni. L'ideismo una tesi sulla natura della percezione, pertanto compatibile con il
realismo metafisico. Realismo causale: vi sono oggetti esterni che esistono indipendentemente dalla
nostra mente e che, attraverso i sensi, causano la percezione indiretta che ne abbiamo.
Berkeley rifiuta il realismo causale, ma anche ogni forma di realismo metafisico, e nega l'esistenza
della materia. Il suo primo argomento sostiene che il materialismo come dottrina non ha senso.
Abbiamo esperienze solo di idee e non di oggetti materiali. Tutte le nostre idee derivano
dall'esperienza e la combinazione di parole oggetto materiale non pu designare alcuna idea, ed
pertanto priva di significato. Egli nega la distinzione tra propriet primarie e secondarie per vari
motivi: si pensa che la distinzione primario/secondario corrisponda a quella tra oggettivo e
soggettivo, ma nessuno ha caratterizzato bene la seconda distinzione e quindi non pu essere
invocata per spiegare la prima. Non possiamo sapere che le propriet primarie sono realmente
stabili, lo possiamo solo sapere rispetto alla nostra costituzione percettiva. Non possibile
immaginare un corpo materiale privo di colore e che pertanto non possiamo separare il colore dai
corpi materiali, senza fare lo stesso con la forma, dimensioni, ecc... infatti per Berkeley tutte le
propriet sono secondarie e possono essere solo percepite. Berkeley sostiene che Dio percepisca
tutto sempre, e che in tal modo garantisca la continuazione dell'esistenza del mondo intorno a noi
anche quando non lo percepiamo. Naturalmente una soluzione ad hoc.
Molti filosofi occidentali oggi direbbero che la giustificazione per credere nell'esistenza di oggetti
indipendenti dalla mente risiede nel fatto che questi forniscono la miglior spiegazione delle
regolarit esibite dall'esperienza. I realisti scientifici direbbero che questa proprio la ragione che
abbiamo per credere nell'esistenza delle identit inosservabili postulate dalle migliori teorie
scientifiche di cui disponiamo. Gli antirealisti sulla conoscenza scientifica sono solitamente degli
empiristi che rifiutano la spiegazione proposta dai realisti di come la scienza possa trascendere
l'esperienza e arrivare alle cause delle cose. Il positivismo logico stato il tentativo di alcuni filosofi
di porre fine al dibattito sul realismo metafisico, l'antirealismo e l'idealismo.
Il termine positivismo fu coniato da Comte il quale sosteneva che le societ attraversano tre fasi,
quella teologica, quella metafisica e quella scientifica. Nella fase teologica fenomeno come il tuono,
la siccit e le malattie sono spiegati invocando l'operato di divinit, spiriti e magia. Nella fase
metafisica si ricorre a forze inosservabili, particelle e cos via. Si raggiunge la fase scientifica
quando si rinuncia alla pretesa di spiegare perch le cose accadano e di conoscere la natura in s
delle cose; il compito proprio della scienza consiste nella predizione dei fenomeni. Comte intendeva
completare la transizione del pensiero europeo alla fase scientifica, attraverso lo studio scientifico
delle societ e delle relazioni sociali (sociologia), e istituzionalizzando un sistema di riti in
celebrazione della scienza e degli scienziati in sostituzione del calendario tradizionale. In generale i
positivisti danni risalto alla verifica/falsificazione; considerano l'osservazione e l'esperienza come
l'unica fonte di conoscenza; sono contrari alla nozione di causa e alle entit teoriche e quindi anche
alla metafisica. I positivisti logici nacquero inizialmente da un gruppo di scienziati matematici
filosofi detto Circolo di Vienna, riunitosi durante gli anni '20. tra i pi influenti ricordiamo Schlick,
Hempel, Carnap, Reichenbach e Ayer. Tutti adottavano l'empirismo di Hume e perseguivano
l'aspirazione di Comte a una cultura intellettuale pienamente scientifica. La novit era data dal
ricorso alla logica matematica sviluppata da Frege e Russell, tramite la quale si pensava che le
teorie si potessero formulare con precisione.

La maggior parte delle parole che utilizziamo designano oggetti che percepiamo con i nostri sensi;
naturalmente l'acquisizione del linguaggio un fenomeno sorprendente per quanto sono bravi i
bambini a imparare i nomi delle cose e a comprendere la grammatica e la sintassi sulla base di pochi
esempi. Per questo naturale supporre che tutte le parole acquisiscano il loro significato dalla loro
connessione con l'esperienza, anche se talvolta tale connessione pu non essere immediata. Secondo
questa concezione il contenuto di ogni pensiero deve essere connesso alle idee che la mente
acquisisce nel fare esperienza del mondo, da ci segue che non possiamo intrattenere pensieri
intelleggibli o significanti intorno a cose che trascendono la nostra esperienza. Si dice che Russell e
Wittgenstein avessero un argomento relativamente alla questione se sia sensato postulare l'esistenza
di un ippopotamo che non pu essere rilevato cin i cinque sensi. Se aggiungiamo ai sensi qualsiasi
tipo di apparecchiatura di rilevazione scientifica e la creatura resta inattingibile, parlarne resta privi
di senso. Per questa via arriviamo al cosiddetto criterio empiristico di significanza riducibile all'idea
che, per essere significante, ogni parola deve avere una qualche connessione con ci che
osservabile. I positivisti logici utilizzavano questo criterio di significanza per criticare teorie che
reputavano pseudo-scientifiche, perch queste utilizzavano termini teorici e concetti che non
potevano essere esplicitamente messi in relazione con l'esperienza. Criticavano come non
significante anche la metafisica. Molti positivisti hanno sostenuto che le ipotesi teologiche siano
prive di significato, l'ipotesi che Dio sia perfettamente buono e onnipotente non ha implicazioni su
quanto possiamo esperire con i sensi, ed pertanto, priva di significato. Le tesi fondamentali
dell'empirismo logico sono: La scienza l'unica forma di ricerca intellettualmente rispettabile; tutte
le verit sono o analitiche (a priori e necessarie cio le tautologie) o sintetiche a posteriori cio
contingenti; la conoscenza o di tipo formale e analitico (matematica e logica) o di tipo empirico.
Il compito della filosofia di esplicare la struttura o logica della scienza; si deve usare la logica per
esprimere con precisione le relazioni tra i concetti; un asserto significante se e solo se analitico o
verificabile empiricamente; il significato di un asserto non tautologico il metodo della sua
verificazione. La nozione di verit fondamentale deve essere autoevidente e autogiustificante;
immune allo scetticismo, deve essere sintetica.
Il fondazionalismo la concezione secondo la quale la giustificazione di una credenza pu essere di
due tipi: alcune credenze (di base) sono giustificate indipendentemente da ogni altra credenza,
mentre le credenze non di base sono giustificate dal fatto di essere deduttivamente o induttivamente
implicate dalle credenze di base. I positivisti logici proposero gli enunciati protocollari come
fondamento della conoscenza. Questi enunciati si riferiscono esclusivamente al contenuto
immediato di particolari esperienze o osservazioni. Gli enunciati protocollari sono anche detti
resoconti di dati di senso, ovvero resoconti di come le cose sembrano a un dato osservatore in un
dato tempo. In quanto tali dovrebbero essere sintetici e contingenti, immuni dal dubbio e non
inferiti da altre credenze. Gli empiristi logici sostenevano che tutti gli asserti empirici significanti
fossero o enunciati protocollari, o ipotesi empiriche. Le ipotesi empiriche mettono in relazione gli
enunciati protocollari gli uni con gli altri, e rendono cos possibili le previsioni. Le leggi scientifiche
sono ipotesi empiriche che vengono controllate sulla base delle loro previsioni osservative. Gli
enunciati protocollari sono fortemente verificati, perch la loro verit stabilita in modo conclusivo
tramite l'esperienza. Siccome gli enunciati protocollari sono certi solo perch si riferiscono
esclusivamente all'esperienza immediata, non possiamo, partendo da enunciati protocollari, affidarci
a un argomento deduttivo per derivare asserti su oggetti indipendenti dalla mente: perch un
argomento sia deduttivamente valido la sua conclusione deve essere in qualche modo implicita nelle
sue premesse. I positivisti adattarono una strategia parallela. Ridussero tutta la conoscenza a
conoscenza di enunciati protocollari e di verit necessarie. Sostennero che gli oggetti percepiti o
possibili fossero riducibili ad asserti su esperienze attuali o possibili. Le proposizioni che
asseriscono l'esistenza di oggetti fisici sono equivalenti alle proposizioni che asseriscono che un
osservatore, in determinate circostanze, avr una determinata serie di sensazioni. Un oggetto fisico
una permanente possibilit della sensazione e niente di pi. Questa concezione talvolta detta
fenomenismo: i positivisti logici erano cio d'accordo con quanti ritenevano ridicole le dispute
filosofiche sull'esistenza dei tavoli; parlare del mondo esterno non ha senso.

Per i positivisti la conoscenza empirica aspira ad anticipare l'esperienza futura. I positivisti logici
svilupparono due approcci per trattare i termini empiricamente sospetti; o negare che fossero
significanti, come per la metafisica, l'etica, la teologia, o mostrare in che modo il significato potesse
essere reso accettabile da un punto di vista empirico, per eliminare la metafisica, come nel caso
della nostra conoscenza del mondo esterno. Per spiegare come mai la gente parlasse cos tanto di
cose apparentemente senza significato, Ayer aveva sostenuto che un enunciato come l'omicidio
sbagliato si limitasse ad esprimere l'atteggiamento del parlante rispetto all'omicidio, piuttosto che
ad asserire un contenuto potenzialmente vero o falso. Talvolta questa teoria sull'etica detta la
teoria del Buu urr perch sostiene che tutte le asserzioni in etica siano mere espressioni di reazioni
emotive senza altro contenuto. I filosofi utilizzano il termine assertivo per dire di qualcosa che
asserisce genuinamente qualcosa sul mondo. Sono gli enunciati assertivi possono essere veri o falsi.
Per lo strumentalismo semantico non si dovrebbero interpretare i termini teorici delle teorie
scientifiche come se si riferissero realmente a entit inosservabili, perch non sono che costrutti
logici utilizzati per sistematizzare le relazioni tra i fenomeni. Le ipotesi teoriche non sono assertive.
D'altra parte c' chi sostiene che le asserzioni contenenti termini teorici siano assertive, ma che
siano riducibili ad asserzioni su entit osservative. Per l'empirismo riduttivo i termini teorici sono
definibili sulla base di concetti osservativi, e pertanto gli enunciati che li contengono sono assertivi.
Le teorie scientifiche non dovrebbero essere presi alla lettera come se si riferissero a oggetti
inosservabili. La definizione esplicita di un termine teorico Pressione=Forza/superficie.
Il problema che la maggior parte dei termini scientifici non definibile in questo modo. Si prenda
il termine temperatura. Abbiamo bisogno di dare una definizione operazionale di ogni possibile
temperatura, perch non ci consentito supporre che vi sia una propriet reale con diversi valori
possibili. I positivisti si resero presto conto del fatto che quando descriviamo le nostre esperienze
ricorrendo al linguaggio pubblico i resoconti sui dati di senso cessano di essere incontrovertibili,
perch in tal caso dobbiamo applicare i termini correttamente, ed sempre possibile che ci
sbagliamo. Nel caso dell'effettivo linguaggio osservativo utilizzato nella scienza chiaro che i
resoconti osservativi sono fallibili. per questo che gli scienziati, per prevenire un errore, ripetono i
test condotti da altri. I positivisti e gli empiristi logici posero l'accento sulla conferma e sulla
falsificazione empirica, in altre parole su ci che conta a favore o contro una data proposizione.
Alcune forme di antirealismo non sono basate sull'eliminazione dei termini teorici, ma su qualche
teoria della verit che nega la concezione realistica secondo la quale la verit consiste nella
corrispondenza tra linguaggio e mondo. Pertanto alcuni antirealisti sostengono che le asserzioni
teoriche della scienza vanno prese alla lettera, e che siano assertive, ma che tuttavia non sia una
realt obiettiva, trascendente ogni possibile osservazione, a renderle vere. Il costruttivista sociale
insister sul fatto che la verit interna alle nostre norme e alle nostre pratiche, e sul fatto che le
entit a cui ci riferiamo siano socialmente costruite. Il costruttivista sociale sulla matematica
sosterr che non vi siano verit matematiche oltre a quelle che i matematici possono provare.
pertanto possibile distinguere varie teorie della verit. La prima : la teoria della verit come
corrispondenza: un'asserzione vera quando corrisponde ai fatti. I termini di un enunciato si
riferiscono a oggetti e propriet nel mondo. La maggior parte dei sostenitori della teoria della
corrispondenza ritiene che l'esplicito riferimento a condizioni di verit indipendenti dalla mente sia
una componente essenziale. Chi accetta il principio di verificazione ritiene insensata l'idea di una
verit trascendente la nostra capacit di verifica. Altri sostengono una concezione pragmatica della
verit, che identifica la verit con ci che alla lunga funziona. Secondo altri, dal momento che
impossibile uscire dal linguaggio per stabilire se esso agganci al mondo in modo appropriato, sono
veri gli enunciati che si adattano meglio all'intero sistema delle nostre credenze; questa teoria della
verit detta coerentismo.
Se si adottano il realismo metafisico e il realismo semantico a proposito di un determinato ambito
A, e si aggiunge un requisito epistemico, otteniamo una forma di realismo forte su A. Le
componenti metafisiche del realismo scientifico (i) le entit di cui si parla e che sono descritti in A
esistono. (ii) la loro esistenza indipendente dalla nostra conoscenza e dalle nostre menti; le
componenti semantiche del realismo scientifico: (iii) gli enunciati a proposito di A sono irriducibili

e assertivi; (iv) le condizioni di verit delle asserzioni in A sono oggettive e ne determinano la verit
o falsit. Questi requisiti semantici si oppongono al coerentismo e al pragmatismo. La componente
epistemologica del realismo scientifico (v) le verit in A sono conoscibili e di fatto ne conosciamo
alcune, e quindi i termini di A hanno un riferimento nel mondo. Nel caso in cui A sia la scienza
otteniamo la formulazione classica del realismo scientifico, la cui veste contemporanea dovuta in
primo luogo da Putnam.
Per essere un antirealista scientifico sufficiente negare una di queste tre tesi. Vi sono molti tipi di
antirealismo: gli scettici negano (i), gli empiristi riduttivi negano (iii), i costruttivisti sociali come
Khun negano la (ii), mentre gli empiristi costruttivi come Bas Van Fraassen negano solo (v) anche
se non credono a (i).
Capitolo 6 Sottoderminazione
Tutti gli argomenti basati sulla sottodeterminazione fanno riferimento al fatto che, spesso, pi di una
teoria, spiegazione o legge compatibile con l'evidenza. I dati sottodeterminano la teoria corretta
quando sono insufficienti per stabilire quale, tra molte teorie, sia quella vera. Riteniamo di
conoscere una teoria T, compatibile con tutta l'evidenza disponibile. C' un'altra teoria T#, anch'essa
compatibile con tutta l'evidenza disponibile per T, (T e T# sono empiricamente equivalenti in senso
debole, ovvero entrambe sono compatibili con l'evidenza raccolta fino al momento presente). Se
tutta l'evidenza disponibile per T compatibile con un'altra ipotesi T#, non c' ragione di credere
che T sia vera e che T# sia falsa. Tra le coppie di teorie che sono state ritenute empiricamente
equivalenti sono l'astronomia tolemaica e l'astronomia copernicana. Una variante della
sottodeterminazione il problema dell'adeguamento della curva. Supponiamo che gli scienziati
siano interessati a stabilire la relazione che intercorre tra la pressione e la temperatura di un gas
mantenuto a volume costante. Allestiscono un esperimento e riportano su un grafico i dati risultanti.
Tra le due grandezze fisiche intercorre una relazione lineare, tipo che all'aumento della pressione
corrisponda l'aumento della temperatura. Tuttavia i punti che sono stati segnati finora sono
compatibili con altre curve. Di conseguenza, una forma dell'argomento della sottodeterminazione
sostiene che siccome i dati raccolti fino a un certo momento sono compatibili con pi di una teoria,
dovremmo sospendere il giudizio su quale sia quella vera. Chiamiamo questa la forma debole
dell'argomento della sottodeterminazione. Gli scienziati cercano di risolvere questi problemi
cercando un fenomeno rispetto al quale le teorie diano predizioni incompatibili, in modo da poter
operare la scelta sulla base di nuovi test sperimentali.
Per ogni teoria H c' sempre un'altra teoria G tale che: H e G sono empiricamente equivalenti in
senso debole; se H e G sono empiricamente equivalenti in senso debole, non c' ragione per credere
in H e non in G. se l'argomento corretto vi saranno sempre teorie rivali a cui non abbiamo pensato
che si adatteranno perfettamente ai dati che sostengono le migliori teoria a nostra disposizione. Si
potrebbe cercare di resistere a questo argomento, argomentando a favore della tesi secondo la quale
l'esistenza di un'ipotesi rivale compatibile con tutti i dati raccolti in un certo momento non implica
che non vi siano ragioni per preferire H e G. ad esempio, Popper ha sostenuto che G dovrebbe
essere ignorata se ad hoc; e se non implica previsioni empiricamente falsificabili. Naturalmente
Popper non intendeva sostenere che dovremmo credere in H, ma la sua risposta pu essere utilizzata
per difendere l'approccio induttivistico al problema della sottodeterminazione. Si potrebbe sostenere
che se in precedenza H ha previsto con successo dei fenomeni, e G ad hoc, allora dati i precedenti
successi del principio metodologico secondo il quale dovremmo preferire le teorie che hanno
successo empirico alle teorie ad hoc, abbiamo motivi induttivi per ritenere H e nin G probabilmente
vera. Supponiamo ad esempio che H sia la teoria secondo la quale ogni forma di vita sulla Terra si
evoluta in seguito a un processo di mutazione e variazione casuale, e sulla base di una selezione
naturale che ha avvantaggiato le varianti pi adatte alla propria nicchia. Ora supponiamo che G sia
l'ipotesi secondo la quale Dio avrebbe creato la Terra. Certamente G compatibile con l'evidenza
disponibile, ma non implica nuove previsioni e sembra ad hoc.
L'argomento della sottodeterminazione debole una variante del problema dell'induzione:

supponiamo che H sia una qualsiasi legge empirica e che G asserisca che quanto osservato finora
compatibile con H, ma che la prossima osservazione sar diversa. Anche in questi casi la maggior
parte dei filosofi nega la seconda premessa. Appellarsi alla sottodeterminazione forte costituisce una
strategia scettica e l'argomento del sogno nella prima meditazione di Cartesio costituisce un buon
esempio. L'argomento il seguente: talvolta i sogni sono cos realistici, che, mentre sogniamo, non
riusciamo a distinguerli dalla vita quotidiana. Se non riesci a distinguere tra la veglia e il sogno,
possibile che in questo momento tu stia sognando. Se non sei nella posizione di escludere di stare
sognando, non sai di stare sognando. Altri esempi di argomenti basati sulla sottodeterminazione
forte sono l'argomentazione di Hume contro la connessione necessaria tra le cose che chiamiamo
cause ed effetti e l'argomento cartesiano del demone maligno contro la conoscenza del mondo
esterno. La tesi che tutta l'evidenza possibile non sia sufficiente a escludere un'ipotesi alternativa,
e che pertanto, non potendo sapere se l'ipotesi alternativa sia falsa, non possiamo conoscere quanto
crediamo di conoscere. Pensiamo di sapere che p; se sappiamo che p, dobbiamo sapere che q
falsa. Non possiamo sapere che q sia falsa. Pertanto non possiamo sapere che p.
ne segue che lo scetticismo circa una determinata credenza pu essere motivato trovando un'ipotesi
rivale che predica che tutto sembri lo stesso. Chi ricorre a questa strategia argomenta l'ultimo
enunciato sostenendo che la ragione per la quale non possiamo sapere se q falsa che ogni
possibile osservazione compatibile con q. Qui fondamentale l'idea di indistinguibilit.
Supponiamo che qualcuno sostenga di aver appena visto un'aquila e che alla domanda di come
faccio a saperlo citi, come evidenza, gli artigli e il becco ricurvo. Se uno non sa distinguere
un'aquila da un falco, intuitivamente non sa di stare guardando un'aquila. Date le circostanze, la
possibilit che l'uccello in questione sia un falco rilevante. In conclusione, potremmo negare la
seconda premessa, sostenendo che se q non un'alternativa rilevante, non necessario escluderla
per sapere che p. quando riflettiamo sulla natura della causazione, la teoria di Hume, secondo la
quale non c' niente al mondo che corrisponda all'idea di causa se non regolarit tra fenomeni,
senz'altro rilevante, e da un punto di vista metafisico, sicuramente meno stravagante della
concezione secondo la quale ci sono connessioni necessarie di un qualche tipo. La ragione per la
quale i positivisti ritengono le seguenti ipotesi non-sensi metafisici che ogni possibile dato
sottodetermina la teoria corretta. Ogni evento il risultato causale di forze fisiche. Ogni evento
stato previsto da Dio per una ragione. Ogni evento l'effetto di una causa precedente. Se i realisti
scientifici sostengono che la conoscenza trascende i fatti empirici sono vulnerabili a una forma forte
dell'argomento della sottodeterminazione. Normalmente tale argomento motivato ricorrendo alla
tesi Duhem-Quine. Il problema di Duhem, secondo il quale gli esperimenti cruciali non possono
mai stabilire, per via puramente logica, che una particolare ipotesi sia vera o falsa, perch per
derivare ogni previsione sempre necessario invocare, oltre a un dato insieme di ipotesi, anche
condizioni iniziali e al contorno. Pertanto solo interi sistemi di teorie possono essere controllati
sperimentalmente (olismo della conferma). Il problema quello di trovare una spiegazione che ci
dica in linea di principio, e non solo con il beneficio del senno di poi, in quali circostanze siano
giustificati a conservare una teoria a dispetto di un apparente confutazione, e quando no. Duhem
sosteneva che fosse necessario che gli scienziati avessero un buon senso nell'identificare la fonte
della falsificazione all'interno di un sistema di teorie. Ma questo non fa che riproporrre il problema
dato che Duhem non spiega su quali principi sia basato il buon senso, n come di fatto funzioni.
possibile variare le assunzioni ausiliarie che corrispondono alle condizioni iniziali e a fatti
specifici relativi al contesto sperimentale; se ripetendo l'esperimento continuiamo a non osservare il
fenomeno atteso, sappiamo che tali assunzioni non sono da biasimare. Si potrebbe affermare che il
sostegno induttivo sfavorevole alle assunzioni ausiliarie che non implicano nuove previsioni e che
sono state introdotte solo per salvare una teoria della confutazione. A ogni modo si tratta qui di una
forma debole della sottodeterminazione, che pu venir meno con la continuazione della pratica
scientifica. L'olismo di Quine pi radicale, perch sostiene che il problema di Duhem possa essere
generalizzato includendo nel sistema teorico la logica e la matematica; in tal modo pu essere
ragionevole ritenere che un esperimento falsifichi tali parti, piuttosto che falsificare la componente
empirica del sistema.

Quine sostiene pertanto che la pi piccola unit di significanza empirica sia la scienza nella sua
interezza, logica e matematica comprese. Se Quine ha ragione, un esperimento sottodetermina se
una particolare teoria debba essere considerata come falsificata o confermata, o se per caso non si
debba interpretare l'esperimento come confutazione dell'aritmetica. Una qualche teoria T, insieme
ad assunzioni di fondo, S, implica che un qualche fenomeno e verr osservato. Ipotizziamo che e
non sia osservato. Gli scienziati deducono che la teoria falsa, o che lo una delle assunzioni di
sfondo. Le teorie di sfondo e le procedure utilizzate per determinare le condizioni iniziali sono ben
confermate e sono usate regolarmente in altri contesti, e quindi, usando il loro buon senso, gli
scienziati concludono che sia T ad essere falsa. Il noto problema di Duhem richiede di spiegare
come facciamo a sapere quale sia la componente falsificata. Secondo l'olismo della conferma
radicale di Quine, invece di supporre che T o S siano falsi, potremmo interpretare la falsit di e
come indizio del fatto che ad essere false siano le leggi logiche che abbiamo utilizzato. Quine
dell'avviso che, nella pratica, ci affidiamo a considerazioni pragmatiche per risolvere casi cos
radicali di sottodeterminazione. Ad esempio, crede che sia talmente scomodo incolpare le leggi
logiche nella loro normale applicazione che risulti sempre pi vantaggioso modificare altre parti del
sistema. La matematica una caso pi difficile.
Un tempo la geometria euclidea cio la matematica dei punti, delle linee e degli angoli era
considerata una scienza a priori della struttura dello spazio fisico. Dal momento che i teoremi della
geometria euclidea seguono deduttivamente da assiomi che sembrano veri in modo autoevidente e
siccome teoremi come la somma degli angoli di ogni triangolo di 180 sembrano esseri resi veri
dai triangoli reali. Quando nel xx secolo fu dimostrata la consistenza di due sistemi geometrici
alternativi si cominci a mettere in discussione la geometria euclidea. Entrambi negavano il quinto
e l'ultimo assioma di Euclide, secondo il quale data una qualsiasi retta, r, e un punto, p, giacente
all'esterno di essa, vi un'unica retta, passante per quel punto, parallela alla retta data. Nella
geometria di Rienman pu non esserci alcuna retta, passante per un p, parallela a r, mentre nella
geometria di Bolay-Lobachevsky ve ne pu essere pi di una. La ragione che entrambe sono
geometrie curve, nel senso che per entrambe la distanza pi breve tra due punti una curva.
L'analogo dato da una geometria della sfera, per la quale la distanza pi breve tra i punti
rappresentata dalle ortodromiche della sfera, e la somma degli angoli di un triangolo non di 180.
La teoria della relativit generale formulata nei termini della geometria riemaniana, e quindi la
geometria dello spazio fisico curva e non piatta. Se la teoria fisica che ha il maggior grado di
adeguatezza empirica non impiega la geometria euclidea, non c' alcuna ragione per pensare che
questa ultima incorpori conoscenze a priori sullo spazio. Molti ritengono che questo episodio illustri
la differenza che intercorre tra geometria pura e quella applicata. La geometria pura lo studio dei
diversi sistemi matematici descritti dai diversi sistemi di assiomi, alcuni dei quali hanno molte
dimensioni. Questa pertanto a priori, ma astratta e non ha nulla a che fare con lo spazio fisico. La
geometria applicata consiste nell'applicazione della matematica alla realt. Impariamo
dall'esperienza come fare, e pertanto ogni possibile conoscenza geometrica sullo spazio fisico non
a priori, ma empirica. Una forma canonica dell'equivalenza empirica tra teorie sullo spazio tempo
basata su questo metodo fu presentata da Poincar. L'idea che non possiamo decidere
sperimentalmente se la struttura geometrica del mondo sia euclidea o non euclidea, perch data una
teoria non euclidea si pu sempre trovare una teoria euclidea empiricamente equivalente
aggiungendo forze che agiscono su tutti i corpi in modo da simulare l'effetto della struttura non
euclidea. La stessa cosa vale anche nell'altra direzione; ad esempio, c' una teoria empiricamente
equivalente alla meccanica newtoniana, ma che impiega uno spazio-tempo curvo per simulare gli
effetti della forza di gravit newtoniana. Le teorie che otteniamo in questo modo, possono essere del
tutto ad hoc e molto complicate. La forma forte dell'argomento della sottodeterminazione per le
teorie scientifiche, la seguente: per ogni teoria data esiste un numero infinito di teorie rivali
empiricamente equivalenti in senso forte e incompatibili; se due teorie sono empiricamente
equivalenti in senso forte, sono equivalenti rispetto all'evidenza. Nessuna evidenza pu sostenere
una teoria pi di quanto non sostenga le sue rivali empiricamente equivalenti in senso forte, e quindi
la scelta di una teoria radicalmente sottodeterminata.

Per articolare la nozione di conseguenza empirica di una teoria necessario invocare una
distinzione di principio tra osservabile e inosservabile. Non esiste un modo netto per tracciare
quella distinzione e sostenere che pertanto essa sia arbitraria, e che non possa esserla attribuita la
rilevanza epistemologica che le viene attribuita. Ma questa obiezione inadeguata in quanto non
necessario avere una netta distinzione; possono anche esserci casi in cui non chiaro se abbiamo
osservato qualcosa o no, o se certe conseguenze di una teoria siano osservative o meno. In secondo
luogo, vi possono essere buone ragioni di carattere epistemologico per tracciare la distinzione
osservabile/non-osservabile in modo netto: un modo per farlo consiste nell'identificare i termini
osservativi di una teoria con i termini che possono essere compresi indipendentemente da quella
teoria. Un'altra replica ammette implicitamente che la distinzione osservativo/non-osservativo
cambi con il tempo, perch le teorie cambiano con il tempo. Laudan e Leplin hanno recentemente
sostenuto che per distinguere le conseguenze osservative di una teoria sia necessario identificare le
sue conseguenze logiche formulabili in un linguaggio osservativo che non fisso, anzi relativo a
un particolare stato della conoscenza scientifica. Tuttavia c' una replica ovvia, cio che le teorie
possono essere momentaneamente empiricamente equivalenti. Per un qualsiasi momento nel tempo,
data una qualsiasi teoria scientifica, ci sar sempre una seconda teoria che in quel momento sar
empiricamente equivalente alla prima, e quindi in quel momento la scelta teorica sar
sottodeterminata. Si pu dire che le teorie scientifiche abbiano virt empiriche come l'adeguatezza
e la forza empirica; le virt superempiriche sono caratteristiche come la semplicit, il non essere ad
hoc e il potere di fare nuove predizioni. Van Fraassen sostiene che le virt superempiriche non ci
diano ragioni per credere, ma solo ragioni ragioni di carattere pratico per scegliere una teoria.
Per il riduzionismo due teorie che sono equivalenti dovrebbero essere trattate come due
formulazioni di una stessa teoria; per il convenzionalismo che la concezione secondo la quale la
scelta tra teorie osservativamente equivalenti riposa su una convenzione. Per il convenzionalista la
scelta tra due teorie empiricamente equivalenti deve basarsi sulla convenienza. Un'altra risposta alla
sottodeterminazione consiste nell'adottare una qualche forma di costruttivismo sociale riguardo alla
conoscenza scientifica.
L'empirismo costruttivo di Van Fraassen ha suscitato un nuovo interesse; egli accetta la componente
semantica e la componente metafisica del realismo scientifico, ma rifiuta la componente epistemica.
Ritiene che le teorie scientifiche sugli inosservabili dovrebbero essere prese alla lettera, e che
pertanto siano vere o false nel senso inteso dal corrispondentista, a seconda che le entit descritte
siano o meno parte di un mondo indipendente dalla mente. L'empirismo costruttivo la concezione
secondo la quale la scienza mira a fornirci teorie che sono empiricamente adeguate; e l'accettazione
di una teoria implica soltanto la credenza che essa sia empiricamente adeguata. Dire che una teoria
empiricamente adeguata significa dire ci essa dice intorno alle cose osservabili. Lo scopo
dell'empirismo costruttivo solo quello di dirci la verit su ci che osservabile e rifiuta la richiesta
di una spiegazione di tutte le regolarit osservabili. La prima obiezione all'empirismo costruttivo
che esso attribuisca un significato ontologico a una distinzione arbitraria. Van Fraassen rifiuta di
tracciare una distinzione a priori tra i termini che si riferiscono a osservabili e i termini che si
riferiscono a inosservabili. Tuttavia per Van Fraassen osservabile significa osservabile per noi, dove
il noi si riferisce alla nostra comunit epistemica.
Capitolo 7 Spiegazione e inferenza
Una spiegazione supposta dirci perch le cose accadano come accadono. Le spiegazioni causali di
determinati fenomeni attribuiscono agli eventi la struttura causa effetto. Le spiegazioni in termini di
leggi, o spiegazioni nomiche, consistono nel mostrare che un evento, date le leggi di natura in
vigore, doveva verificarsi. Le spiegazioni psicologiche chiamano in causa la nostra retrostante
conoscenza del fatto che il comportamento legato a desideri e credenze. Quando si fa riferimento
a leggi, si deve anche offrire un resoconto causale del perch certe leggi siano in vigore. I positivisti
come Hume sono contrari all'idea di causazione o di una connessione necessaria, che trascende le
mere regolarit che possono essere osservate intercorrere tra i fenomeni. Chi d'accordo con Hume

nel ridurre le cosiddette cause a mere regolarit fenomeniche ritiene che le spiegazioni causali siano
riducibili a spiegazioni nomiche. Una delle pi influenti concezioni della spiegazione scientifica,
dovuta a Hempel, sostiene che la spiegazione scientifica di un qualche fenomeno, fatto o evento
consista nel mostrare come esso sia una conseguenza di una legge insieme alla specificazione di
condizioni iniziali. Hempel sostiene che tutte le spiegazioni genuine, anche in storia e in scienze
sociali facciamo riferimento a leggi, anche quando apparentemente non si conformano al modello a
legge di copertura. Parlando di spiegazione, i filosofi chiamano la cosa di cui si cerca la
spiegazione, qualsiasi cosa essa sia, explanandum; pu trattarsi di un evento particolare o di una
classe generale di fenomeni. Ci che fornisce la spiegazione detto l'explanans. Ad esempio se
l'explanandum il ricorrere una volta al mese delle alte maree, l'explanans costituito dalla legge di
gravitazione, insieme alla specificazione della massa dell'acqua degli oceani e della massa e della
posizione della Luna. Il passo successivo consiste nel dedurre dalla legge di gravitazione che la
Luna eserciter sull'acqua terrestre un effetto gravitazionale sufficiente a causare alte e basse marre.
Il primo modello a legge di copertura elaborato da Hempel il modello nomologico-deduttivo:
secondo questo modello della spiegazione, l'explanandum deve essere dedotto da leggi di natura, e
da fatti al contorno e condizioni iniziali. Secondo questo modello, una spiegazione deve soddisfare
le seguenti condizioni logiche: l'explanans deve implicare deduttivamente l'explanandum. La
deduzione deve fare un uso essenziale di leggi geneali. L'explanans deve avere un contenuto
empirico. La prima condizione dice che una spiegazione putativa deve essere un argomento
deduttivamente valido; l'explanandum deve seguire deduttivamente dall'explanans. La seconda dice
che un argomento, per essere una spiegazione deve avere come premesse una o pi leggi, e che tali
leggi devono essere essenziali per la validit dell'argomento; tale condizione serve a evitare che una
spiegazione pseudo-scientifica soddisfi questo modello. La terza condizione dice che l'explanans
devono essere controllabili empiricamente. Infine si deve aggiungere la seguente condizione
empirica: gli enunciati che occorrono all'explanans devono essere veri. Questa condizione tiene
conto dell'intuizione secondo la quale una spiegazione basata su proposizioni false
insoddisfacente, e garantisce che l'argomento sia corretto. Se viene fuori che una delle nostre leggi
pi care falsa, secondo questo modello dobbiamo riconoscere che tutte le volte che l'abbiamo
impiegata abbiamo solo pensato di stare spiegando qualcosa, ma che di fatto non stavamo
spiegando niente. La maggior parte delle obiezioni rivolte al modello della spiegazione a legge di
copertura si propone di mostrare che le condizioni proposte da Hempel non sono sufficienti; alcuni
sostengono che tali condizioni non siano neanche necessarie. Si ha il caso dell'irrilevanza quando un
argomento soddisfa il modello a legge di copertura, ma l'explanans parzialmente costituito da
fattori che non sono rilevanti dal punto di vista esplicativo. Il problema dell'irrilevanza pu essere
risolto aggiungendo la condizione secondo la quale le premesse di una spiegazione genuina devono
essere rilevanti, e non contenere clausole o leggi aggiuntive di tipo gratuito. Si ha anticipazione
quando un evento, che si sarebbe verificato per qualche ragione, si verifica prima per un'altra
ragione. Si dice che un evento sovradeterminato quando sono in azione pi fattori causali, e
ciascuno di essi sufficiente a determinarlo. Supponiamo che la morte di una persona sia
contemporaneamente causata da uno sparo alla testa e dalla sedia elettrica, in questo caso diremmo
che la morte di questa persona sovradeterminata. Molte leggi scientifiche sono leggi di
coesistenza, cio impongono dei limiti a ci che pu realizzarsi simultaneamente. Hempel accetta la
tesi dell'identit strutturale, secondo la quale le spiegazioni e le previsioni hanno esattamente la
stessa struttura; sono argomenti che hanno leggi di natura e descrizioni delle condizioni iniziali.
L'unica differenza che nel caso di una spiegazione sappiamo che la conclusione dell'argomento
vera, mentre la conclusione, nel caso di una previsione, non nota. I casi di anticipazione e di
sovradeterminazione sono casi di buone previsioni, ma non di spiegazioni adeguate. Le spiegazioni
probabilistiche sembrano fornire un ulteriore controesempio alla tesi della coincidenza della
spiegazione e della previsione: quando l'explanans conferisce all'explanandum un grado basso di
probabilit, non possiamo neanche avanzare la previsione secondo la quale probabile che si
verifichi l'explanandum, ma se si verifica, siamo in grado di spiegare perch sia successo. Il
modello statistico-induttivo di Hempel assume che nel caso delle spiegazioni probabilistiche la

legge, insieme alle condizioni ausiliarie, renda l'explanandum molto probabile. Nel tentare di
evitare i problemi che affliggono il modello a legge di copertura, molti filosofi hanno adottato una
teoria causale della spiegazione, secondo la quale spiegare qualcosa significa specificarne le cause.
Secondo questa concezione, le spiegazioni non sono argomenti e non devono necessariamente far
riferimento a leggi. Le leggi di natura sembrano sostenere i controfattuali, mentre le
generalizzazioni universali vere accidentalmente non sembrano avere questa propriet. L'inferenza
alla miglior spiegazione (IMS) la regola d'inferenza secondo la quale, quando abbiamo di fronte
una serie di ipotesi in competizione, e ciascuna empiricamente adeguata rispetto ai fenomeni di un
qualche dominio, dovremmo concludere che quella vera sia l'ipotesi che fornisce la miglior
spiegazione. Harman ha introdotto il termine inferenza alla miglior spiegazione in una regola, ma
questa regola anche nota come abduzione. L'inferenza ha la seguente forma: se p allora q, q,
quindi p. Ma se consideriamo questo: se qualcosa un gatto, allora un mammifero, Bess un
mammifero, quindi Bess un gatto: questa inferenza non deduttivamente valida, perch
possibile che le due premesse siano entrambe vere e che la conclusione sia falsa, se ad esempio
Bess un cane (questa fallacia nota come l'affermazione del conseguente). Ci sono due modi per
difendere il realismo scientifico ricorrendo all'IMS: la difesa che definiscono locale e quella che
definiscono globale. Secondo Psillos Van Fraassen cercherebbe di mostrare che l'IMS non pu
giustificare da un punto di vista epistemico un'ipotesi su entit inosservabili, ma che pu giustificare
solo un'ipotesi su entit osservabili. Secondo Psillos Van Fraassen invoca una regola di inferenza
all'adeguatezza empirica della miglior spiegazione. I realisti scientifici ricorrono all'IMS per
difendere il realismo anche a livello globale, dove l'explanandum il successo della scienza nella
sua interezza. Si tratta del cosiddetto argomento finale per il realismo scientifico, anche noto come
il no-miracle argument, proposto da Putnam: l'argomentazione positiva a favore del realismo che
si tratta dell'unica filosofia che non trasforma il successo della scienza in un miracolo. L'idea che
il successo predittivo e strumentale della scienza nella sua interezza non possa essere spiegato
altrimenti che tramite il realismo e l'argomento riposa su un'inferenza all'unica spiegazione.
La difesa globale del realismo pi sofisticata quando chiama in causa aspetti specifici della
metodologia e della pratica scientifiche e sostiene che siano particolarmente bisognosi di una
spiegazione, per poi aggiungere che il realismo fornisce la spiegazione migliore, o forse l'unica
possibile. nota l'obiezione della congiunzione all'antirealismo: solo i realisti sono motivati a
credere nelle nuove conseguenze osservative derivanti dalla congiunzione di teorie accettate.
Tuttavia, nel corso della storia della scienza la pratica di congiungere le teorie diffusa e costituisce
una componente affidabile della metodologia scientifica. Van Fraassen risponde che l'unificazione
delle teorie un procedimento tramite il quale queste sono corrette piuttosto che congiunte. Inoltre
gli scienziati hanno motivazioni di carattere pragmatico per studiare l'adeguatezza empirica della
congiunzione di teorie accettate. I realisti hanno reagito ripiegando sulla pi debole tesi secondo la
quale il realismo, se non l'unica spiegazione, fornisce almeno la miglior spiegazione del successo
della scienza. Proseguono poi sostenendo che la spiegazione fornita da Van Fraassen di tipo
fenotipico; propone cio un meccanismo di selezione per spiegare come un particolare fenotipo (le
teorie di successo) sia divenuto dominante entro la popolazione delle teorie. Tuttavia, ci non
preclude una spiegazione genotipica di quelle sottostanti caratteristiche di alcune teorie che ne
hanno determinato il successo. Laudan e Fine hanno proposto una critica al ricorso dell'IMS al
livello globale; entrambi hanno sottolineato che dal momento che il dibattito sul realismo riguarda il
fatto che l'IMS coinvolge entit inosservabili, la mossa di invocare il potere esplicativo del realismo
scientifico al meta-livello per spiegare il generale successo della scienza circolare, perch il
realismo stesso un'ipotesi che coinvolge entit inosservabili. Pertanto, sostengono che la difesa
globale sia basata su una petitio principii. Van Fraassen propone diversi argomenti per contestare la
tesi secondo la quale l'IMS una regola d'inferenza. 1 l'argomento dell'indifferenza. Per ogni teoria
in nostro possesso esistono molte teorie ad essa empiricamente equivalenti. 2 l'argomento della
migliore di un cattivo lotto di ipotesi. Questo argomento sostiene che se dobbiamo credere che un
insieme di ipotesi sotto esame contenga la teoria vera, abbiamo bisogno di un principio di
privilegio. L'argomento richiede al proponente dell'IMS di spiegare come facciamo a sapere che la

nostra miglior spiegazione migliore anche di tutte le ipotesi alternative che non abbiamo
considerato. La questione principale nella difesa del realismo scientifico lo scetticismo selettivo:
la discriminazione epistemica degli inosservabili; i diritti degli inosservabili. Il realista pu
sostenere o che Van Fraassen non abbia risorse per bloccare la sottodeterminazione da parte
dell'evidenza disponibile di quale sia la teoria empiricamente adeguata, e neanche per giustificare le
ordinarie inferenze induttive o la credenza in entit osservabili, e che quindi debba accettare una
forma radicale di scetticismo; o che Van Fraassen sia costretto a ricorrere a una forma di scetticismo
selettivo nei confronti dell'IMS riguardo agli inosservabili, e al contempo impiegare l'IMS nel caso
delle teorie sugli inosservabili e per le inferenze all'adeguatezza empirica delle teorie sugli
inosservabili. Van Fraassen non presenta l'empirismo costruttivo come una concezione che
dovremmo accettare a meno di essere irrazionali, ma come una concezione che potremmo adottare
per spiegare tutti gli aspetti della scienza. Egli presenta questa impostazione come nuova
epistemologia e chiarisce di intendere la razionalit come termine permissivo e non come termine
obbligativo. Per Van Fraassen l'IMS pu essere indispensabile per formulare aspettative ragionevoli,
e quindi pu anche essere pragmaticamente indispensabile.
Capitolo 8 Realismo a proposito di cosa?
L'argomento forse pi cogente contro il realismo scientifico la nota meta-induzione pessimistica
recentemente proposta da Laudan. un tipo di argomento basato sul cambiamento teorico e si
differenzia dall'argomento della sottodeterminazione perch fa riferimento alla storia della scienza
piuttosto che a possibilit teoriche e a costruzioni matematiche barocche. Nel tentativo di non
trascurare la lezione della storia, sostengono che le teorie non siano perfettamente vere, ma solo
vere in modo approssimato. La verit approssimata, talvolta detta verosimilitudine, uno strumento
fondamentale per i realisti scientifici, ma nonostante vari tentativi sembra non aver ricevuto una
caratterizzazione soddisfacente e precisa. Sembra che tale nozione sia necessaria per la semantica.
Nel suo attacco al realismo Laudan sostiene che una teoria non pu essere neanche
approssimativamente vera se i suoi termini teorici fondamentali non hanno un riferimento.
In risposta a Khun, Putnam ha proposto un resoconto del significato dei termini teorici radicalmente
diverso. Questi ha fatto notare che la maggior parte dei parlanti non ha la minima idea di come
caratterizzare il riferimento di molti dei termini che usa, utilizzandoli si riferisce ad entit di vario
tipo. Secondo la teoria di Putnam si devono discriminare quattro componenti del significato dei
termini di genere naturale. In primo luogo c' l'indicatore sintattico, poi l'indicatore semantico e lo
stereotipo, infine l'estensione, cio la cosa reale. Putnam difende una teoria causale del riferimento
per i termini di genere naturale; secondo tale teoria il riferimento non fissato tramite una
descrizione associata al termine, ma dalla causa responsabile dell'uso del termine. La metainduzione ha la seguente struttura: nella storia della scienza sono molte le teorie che, dopo aver
goduto per un certo periodo di successi empirici, hanno finito con l'essere rifiutate; la conseguenza
che, secondo le migliori teorie a nostra disposizione, i termini teorici impiegati da tali teorie non
avevano un riferimento. Le nostre migliori teorie non sono di tipo diverso rispetto alle teorie
rifiutate, e quindi non abbiamo motivi per pensare che, a loro volta, anch'esse non verranno
rimpiazzate. Per induzione, abbiamo ragioni positive per credere che le nostre migliori teorie
saranno rimpiazzate da nuove teorie, le quali diranno che alcuni termini teorici fondamentali delle
nostre teorie non hanno un riferimento. Ne segue che non dovremmo credere nella verit
approssimata delle nostre teorie o nel successo referenziale dei termini teorici che esse impiegano.
La prima reazione del realista alla meta-induzione di circoscrivere la lista delle teorie che possono
essere legittimamente utilizzate come base per un'induzione la cui conclusione riguardi le teorie
contemporanee. Le risposte realiste sono: restringere il realismo alle teorie mature: una scienza
matura quando soddisfa requisiti come la coerenza con i principi fondamentali delle teorie di altri
domini, e il possesso di un insieme ben trincerato di principi fondamentali che definisce il dominio
della scienza e i suoi metodi appropriati, oltre che porre limiti al tipo di teorie possibili.
La seconda risposta di restringere il realismo alle teorie che hanno avanzato con successo nuove

previsioni. La nozione di nuova previsione fu introdotta da Popper che metteva a confronto le


rischiose previsioni della fisica e le vaghe previsioni della psicoanalisi, ma voleva al contempo
giustificare gli scienziati che non si erano risolti ad abbandonare la teoria newtoniana quando erano
state condotte osservazioni incompatibili con tale teoria. C' qui una questione generale relativa alla
natura della conferma che l'evidenza conferisce a una teoria. Quando una particolare evidenza sia
stata reperita rilevante rispetto al grado di conferma che conferisce a un'ipotesi? I predizionisti
sostengono che solo la nuova evidenza confermi una teoria, mentre gli esplicativisti sostengono che
una teoria sia confermata solo quando spiega fatti noti. Secondo altri filosofi entrambi i tipi di
evidenza sono in grado di confermare una teoria anche se quella nuova cogente. Analogamente,
secondo i realisti, la capacit di una teoria di prevedere risultati che altrimenti non sarebbero stati
attesi sarebbe inspiegabile, nell'ipotesi che il realismo fosse falso. Nel 1818 Fresnel elabor una
teoria matematica secondo la quale la luce consiste di onde di tipo particolare, ovvero onde
transverse. Un'onda transversa oscilla perpendicolarmente rispetto alla sua direzione. La teoria di
Fresnel derivava gli effetti noti in modo preciso ed elegante, ma aveva una nuova conseguenza.
Prediceva che in determinate circostanze la luce diretta su un disco completamente opaco avrebbe
proiettato un'ombra con al centro una macchia di luce bianca. Questo fenomeno, noto come
rifrazione conica, stato osservato in pi di un occasione. Fresnel non ne sapeva niente quando
elabor la sua teoria, e in effetti non fu neanche lui a derivare tale conseguenza. Questo caso,
comportando la previsione di un fenomeno inaspettato e completamente nuovo, ancora pi
impressionante della previsione dell'esistenza di un nuovo pianeta.
Se si intende reagire alla meta-induzione restringendo la sua base induttiva alle teorie da cui sono
state derivate con successo nuove previsioni, la nozione di novit implicata deve essere spiegata con
precisione. Il modo pi diretto quello di ricorrere alla nozione di novit temporale. Una previsione
nuova dal punto di vista temporale se prevede un fenomeno ancora inosservato. Il problema legato
all'uso di questa nozione del successo che una teoria pu avere nell'avanzare nuove previsioni come
criterio per l'adozione del realismo rispetto a una particolare teoria che sembra introdurre un
elemento di arbitrariet rispetto alle teorie nelle quali dovremmo credere. Pi plausibile il
suggerimento secondo il quale la cosa veramente importante, rispetto alla novit di un risultato, se
lo scienziato, prima di elaborare la teoria che lo prevede, lo conoscesse oppure no. Chiamiamo
questa nozione novit epistemica. Il problema di questa caratterizzazione della novit, che,
talvolta, il fatto che uno scienziato fosse a conoscenza di un determinato risultato non sembra aver
compromesso la novit rispetto alla teoria, perch lo scienziato elaborando la teoria pu non averne
tenuto conto. Worrall suggerisce che il realismo sia appropriato solo nel caso di teorie, elaborate
avendo in mente un determinato insieme di dati, che del tutto inaspettatamente sono risultate
prevedere ulteriori fenomeni di carattere generale. Tuttavia, Leplin rifiuta questa proposta,
sostenendo che in tal modo la novit sarebbe relativizzata a chi propone una determinata teoria,
introducendo cos un aspetto psicologico, e pertanto non epistemico, nella nozione di novit. Queste
considerazioni motivano la nozione di novit d'uso. Un risultato nuovo rispetto all'uso se lo
scienziato non lo ha esplicitamente inserito nella teoria o se non lo ha utilizzato per fissare qualche
parametro necessario alla sua derivazione. Leplin chiarisce che la ricostruzione del ragionamento
che ha condotto a una teoria un'idealizzazione di ci che ha pensato lo scienziato responsabile di
quella teoria, che tale ricostruzione adeguata se motiva la proposta della teoria, e che
minimamente adeguata quando la pi breve catena argomentativa che soddisfa le prime due
condizioni. Il fatto che le teorie prevedano tipi qualitativamente nuovi di fenomeni, poi
successivamente osservati, sembrerebbe davvero parlare in favore di una qualche forma di realismo
sulla conoscenza scientifica. la possibilit del fatto che una teoria produca predizioni nuove, e il
fatto che talvolta ci avvenga, che deve essere spiegato nei termini di una teoria complessiva sulla
scienza e il mondo. Restringere il realismo alle asserzioni teoriche sugli inosservabili che occorrono
essenzialmente nella derivazione delle predizioni di nuovi fenomeni. Questa strategia consiste nel
sostenere che le parti delle teorie che sono state abbandonate non hanno giocato alcun ruolo nel
determinare che tali teorie abbiano predetto con successo nuovi fenomeni. Kitcher dice che nessun
realista di buon senso sarebbe disposto a sostenere che le parti inessenziali di una pratica

individuale, passata o presente, sono giustificate dal successo complessivo della pratica.
Analogamente, Psillos sostiene che la storia non confuta una forma cauta di realismo che distinge il
tipo di sostegno che l'evidenza conferisce a parti diverse di una teoria, e che suggerisce di credere
sono nelle parti della teoria che sono coinvolte in modo essenziale nel prevedere con successo nuovi
fenomeni. Questa forma di realismo cauto, in opposizione al realismo tutto o niente, non avrebbe
suggerito di credere nelle parti delle teorie richiamate da Laudan, perch se distinguiamo tra le
componenti di una teoria che ne hanno generato il successo e le componenti che non lo hanno fatto,
ci rendiamo conto del fatto che solo le parti inessenziali sono state abbandonate. Secondo Psillos i
costituenti teorici che danno un contributo essenziale al successo sono quelli che svolgono un ruolo
fondamentale nel generarlo. Sono quelli che alimentano davvero la derivazione. Ci significa che
l'ipotesi in questione tale da non poter essere rimpiazzata da un'alternativa non ad hoc, motivata
indipendentemente, che abbia il potenziale di offrire un'altra spiegazione.
Jones solleva la questione realismo a proposito di cosa? egli fa notare che nella scienza
coesistono formulazioni alternative di una stessa teoria fisica, e che non dovremmo necessariamente
credere in un'unica immagine del mondo, anche se dal punto di vista epistemico fossimo giustificati
a farlo. La meccanica classica, ad esempio, fornisce l'esempio paradigmatico di una teoria
scientifica matura, con una lista impressionante di successi predittivi, dal ritorno della cometa di
Halley ai pi recenti viaggi spaziali. La meccanica classica applicata ai fenomeni planetari
congiungendo la legge di gravitazione alle tre leggi sul moto. Questo approccio molto efficace per
trattare corpi simmetrici di grandi dimensioni approssimativamente sferici, la cui massa pu essere
fissata a zero in qualunque punto diverso dal centro di massa. Tuttavia, rispetto a corpi estesi questo
approccio si rivela intrattabile dal punto di vista del calcolo, ed rimpiazzato dalla formulazione di
campo della meccanica classica. C' poi da considerare una terza formulazione, nella quale la legge
di forza e la legge del moto sono derivabili dai cosiddetti principi di minimo. Tale versione spesso
nota come meccanica analitica fu elaborata per la prima volta da Lagrange. La meccanica analitica
derivata sulla base del principio di minima azione, che asserisce che la traiettoria seguita da una
particella tra due punti tale da minimizzare il cosiddetto integrale d'azione che rappresenta
l'energia totale, cinetica e potenziale del sistema. La risposta al problema sollevato da Jones
consisterebbe nel far notare che la meccanica classica notoriamente falsa, e che l'esistenza di
quattro formulazioni alternative di una teoria falsa non costituisce un problema per il realista.
Questa risposta risulterebbe in ultima istanza dannosa per il realismo, perch implicherebbe che il
realista debba impegnarsi esclusivamente nei confronti dell'unica teoria corretta del mondo.
Musgrave ha risposto all'argomento di Jones sottolineando una serie di punti su cui molti realisti
sarebbero d'accordo. Jones presenta le quattro teorie come versioni della stessa teoria, ma Musgrave
in disaccordo: egli sostiene che l'equivalenza empirica non implichi l'equivalenza rispetto
all'evidenza perch il potere esplicativo ha un peso evidenziale. Ovviamente tutte e quattro le teorie
proposte da Jones hanno potere esplicativo, e quindi non possono essere messe da parte come se
fossero varianti del tipo il mondo come se T fosse vera. Musgrave vuole convincerci del fatto
che l'unico modo per escludere quella follia della scienza della creazione, l'idealismo di Berkeley
ricorrere a quelle stesse considerazioni metafisiche che ci consentono di sbarazzarci del problema
della molteplicit sollevato da Jones. La fisica si propone di rappresentare il mondo, ma non lo
rappresenta con le sue teorie, con i suoi modelli. Una delle tesi centrali di Cartwright che
l'immagine tradizionale delle teorie e dei modelli non rifletta l'effettiva pratica scientifica
dell'applicazione delle teorie. L'immagine tradizionale il modello a legge di copertura: secondo
tale modello, dati particolari contesti sufficiente affiancare alle teorie le assunzioni ausiliarie
appropriate per implicare, sulla loro base, i dati/fenomeni. L'effettivo uso che viene fatto delle teorie
e l'effettiva costruzione dei modelli comporta l'applicazione di strutture teoriche astratte a situazioni
concrete. La peculiare metafisica della scienza difesa da Cartwright motivata dalla sua analisi
dell'applicazione delle teorie. Nel suo libro egli propone la distinzione tra leggi fenomenologiche e
leggi fondamentali, e sostiene che le prime si riferiscono al concreto e al particolare, le seconde
all'astratto e al generale. Inoltre, le leggi fenomenologiche sono effettivamente o potrebbero essere
vere degli oggetti della realt, ma le leggi fondamentali sono vere esclusivamente degli oggetti del

modello. Secondo il libro in questione, le leggi fondamentali, a causa della loro natura astratta, sono
s esplicative, ma non descrivono niente. Sono messe in connessione ai fenomeni per mezzo delle
leggi fenomenologiche, che non sono esplicative, ma sono descrittive. Pertanto a livello teorico gli
scienziati costruiscono modelli che sono apertamente incompatibili con gli oggetti reali.
Secondo Cartwright l'idealizzazione la manipolazione teorica o sperimentale di circostanze
concrete che ha lo scopo di minimizzarne o eliminare del tutto, determinate caratteristiche. Le leggi
a cui arriviamo non possono neanche essere approssimativamente vere, perch sono state ottenute
eliminando caratteristiche causali rilevanti, e non riguardano situazioni concrete.

Vous aimerez peut-être aussi