Vous êtes sur la page 1sur 9

EL REALISMO CIENTÍFICO EN LA FILOSOFÍA DE LA CIENCIA DESPUÉS

DE KUHN

Abstrac:
El realismo científico es una suma de posiciones epistemológicas, ontológicas,
semánticas y otras más. Con todo, es una posición filosófica que pretende
explicar el éxito de las teorías científicas con alguna especie de isomorfismo
entre el lenguaje de la ciencia y el mundo. En cuanto a sus dificultades, a
diferencia de lo que ocurrió en el periodo clásico de la filosofía de la ciencia, es
con Kuhn donde la idea del realismo se pondrá en discusión como nunca antes.
Si bien Kuhn no dio una respuesta definitiva a esta cuestión se abrirán dos
tradiciones en sus raíces que tendrán connotadas implicancias para el
problema: i) el proyecto sociologista fuerte y ii) las concepciones semánticas. En
esta última tradición resaltan Giere y Niiniluoto con su defensa del realismo
científico con un gran grado de sofisticación. A pesar de esto, concluiremos que
Moulines tiene razón al etiquetar de pseudorealista a Giere y también
argumentaremos que las mismas críticas alcanzan las ideas de Niiniluoto.
Keywords:
Filosofía de la ciencia – Thomas Kuhn – concepciones semánticas – realismo científico

1. El concepto de realismo científico

Hablar del realismo científico supone una serie de tesis que muchas veces se
confunden entre sí. Por ejemplo, siguiendo a Dieguéz Lucena (1998), podemos
distinguir, sin ser excluyentes, entre:

a) Realismo ontológico: Los postulados de nuestras teorías exitosas existen


(aunque hay excepciones). Los términos teóricos típicamente refieren.
b) Realismo epistemológico: Nuestras teorías exitosas nos brindan un
conocimiento adecuado (aunque perfectible) del mundo
independientemente de nuestros procesos cognitivos.
c) Realismo teórico: Nuestras teorías científicas pueden ser verdaderas y falsas.
d) Realismo semántico: La verdad de nuestras teorías es una cuestión de
correspondencia.
e) Realismo progresivo: Nuestras teorías científicas progresan hacia la verdad.
Nuestras teorías se superan acumulando más verdad que sus predecesoras.

Todas estas versiones que configuran el significado del “ser realista” hacen que
no se tenga una doctrina con los límites claros. Salvo Bunge y quizá Popper ningún
filósofo que se llame a sí mismo un realista se ha comprometido con todas esas
versiones del realismo. De hecho, podemos decir que el realista dibujado por Larry
Laudan (comprometido con todas estas versiones) no es más que un espantapájaros
para hacer fácil su objetivo de invalidarlo.
Asimismo, podemos notar como si bien algunas versiones implican a otras (ser
realista epistemológico implica el ontológico y ser realista semántico implica al teórico),
es posible mantener solo la versión epistemológica y no así la semántica ni la
progresiva, por ejemplo.

Con todo, un realista trata de responder a una pregunta fundamental: ¿Es el


isomorfismo (concediendo lo vago de este concepto) entre el lenguaje de la ciencia y el
mundo la mejor explicación del éxito de las teorías científicas? Un realista, respondería
afirmativamente mientras un antirrealista o instrumentalista lo haría negativamente: el
éxito de las teorías supone otras cosas, ya sea la mejora de la empresa de solucionar
problemas (Laudan) o la adecuación empírica (van Fraassen). Ahora, lo cierto de todo
esto es que las respuestas variarán de acuerdo a lo que el filósofo entienda por teoría
científica y por la relación de simetría entre esta y el mundo.

2. El problema del realismo en el periodo clásico de la filosofía de la


ciencia

En un inicio, cuando la filosofía de la ciencia empezó a adquirir su


profesionalización, especialmente, en la llamada “concepción heredada” o periodo
clásico, el realismo no era una cuestión discutida. Popper creía que solo un
irracionalista negaría el hecho de que las teorías progresan hacia la verdad, aunque
nunca la alcancen. Carnap, por su lado, veía una pregunta espuria en estas cuestiones.

A diferencia de lo que hacían los filósofos del periodo clásico, son los llamados
“nuevos filósofos de la ciencia” comandados por Kuhn quienes empezarán a cuestionar
muchos de los presupuestos filosóficos del estudio de la ciencia. Por ejemplo, la ya
clásica distinción ente contexto de descubrimiento y justificación pasará a ser solo una
distinción entre actitudes de estudio (evaluativo-explicativo), de modo que el cambio
teórico pasaría a tener una importancia trascendental. Adicionalmente, con este
filósofo (si bien ya antes en autores como Otto Neurath) se pondrá énfasis en el rechazo
del análisis en términos de la lógica clásica de las teorías al ser infértil en la medida en
que la ciencia es una actividad esencialmente pragmática.

Pero la crítica fundamental de Kuhn es al realismo presupuesto: las teorías solo


son paradigmas que son inconmensurables. El éxito de una teoría, y la historia según
Kuhn nos mostraría esto, es una cuestión pragmática antes que semántica. El progreso
de la ciencia no sería una cuestión de acercamiento a la verdad en términos de
correspondencia, sino el paso de un modo de ver el mundo hacia otros guiados por
valores epistémicos.
3. Las dos tradiciones postkuhnianas

El embate historicista, pues, es vital para que se haya repensado el realismo.


Dentro de esta tradición resaltan también, los argumentos de Larry Laudan contra la
principal arma realista: el argumento de que no existen los milagros. De hecho, este
filósofo irá más lejos de Kuhn: i) nos dirá de forma más determinante cómo la historia
nos muestra a muchas teorías tenidas como verdaderas con gran capacidad explicativa
y predictiva que resultaron equivocadas y ii) sostendrá que el éxito de las teorías puede
explicarse en términos de solucionar más y mejores problemas.

Ahora bien, Kuhn y los otros pensadores de la etapa historicista sepultarán de


una vez por todas las pretensiones del periodo clásico abriendo así dos tradiciones
completamente diferentes: a) los proyectos fuertes de la sociología de la ciencia que
hicieron los referentes de las teorías construcciones sociales ideologizadas y por cambio
teórico una cuestión sesgada irracional y b) las concepciones semánticas de las ciencias
que asumen las teorías ya no una familia de enunciados, sino una familia de modelos.

En este trabajo nos centraremos solo en las concepciones semánticas y


rechazaremos las concepciones relativistas básicamente por dos razones: i) se refutan a
sí mismas. Si no es posible creer ninguna posición como racional, ¿por qué deberíamos
creer la afirmación de que no hay justificación racional alguna? Y principalmente por ii)
todas las críticas que se le hace a las concepciones tradicionales de la ciencia son
respondidas por las concepciones semánticas, a saber: a) supera la infertilidad del
análisis en lenguajes formales de primer orden, b) descartan la concepción estática y
opaca de las teorías científicas como enunciados o proposiciones y c) capturan aspectos
pragmáticos de la actividad científica que están presentes en las comunidades
científicas.

4. El realismo científico en las concepciones semánticas de las


teorías

Resumidamente, bajo las concepciones semánticas presentar una teoría es


presentar una familia de estructuras o modelos. Ahora bien, hemos de mencionar de
una vez que todas las concepciones que se enmarcan en esta tradición poseen a la sumo
un parecido de familia al concebir y presentar “modelos” de diferentes modos y con
elementos diferentes. Lo único cierto es que los filósofos de esta etapa rechazan la
visión sintáctica de las teorías al no capturar nuestras ideas de “x comunidad científica
comparte una teoría y”. Para que resulté más claro esto veamos la axiomatización de la
mecánica clásica hecha por Suppes (1957):
De forma rápida, podemos decir que Los axiomas (1) a (3) son los axiomas
cinéticos. El axioma (1) exige que P sea una clase finita y no vacía (intuitivamente, de
partículas’); (2) dice que T es un intervalo de números reales (de ‘tiempo’); (3) exige
que s (intuitivamente, la posición en el espacio’) sea una función que a cada partícula’
de P y cada ‘instante’ de T asigne unívocamente un vector 3-dimensional, y que esta
función sea dos veces diferenciable (para que la aceleración, definida como la segunda
derivada de la posición respecto al tiempo, esté siempre definida). Los axiomas (4) a (9)
son axiomas dinámicos; (4) pide que m (intuitivamente, la masa) sea una función que a
cada partícula asigne un número real positivo (recuérdese que en la mecánica clásica no
hay masas nulas). Hablando intuitivamente y pensando en los modelos propuestos,
podemos decir (interpretando) que (5) caracteriza a f como las fuerzas internas que
unas partículas del sistema ejercen sobre otras, es decir, como la función que a cada par
de partículas y a cada instante asigna el vector-fuerza correspondiente a la fuerza que
sobre la primera partícula ejerce la segunda en ese instante, y que (6) caracteriza a g
como la resultante de las fuerzas externas, es decir, como la función que a cada
partícula y a cada instante asigna el vector-fuerza correspondiente a la resultante de
todas las fuerzas externas que actúan sobre esa partícula en ese Instante. El axioma (7)
corresponde a la segunda ley del movimiento de Newton, que dice que la fuerza es igual
a la masa por la aceleración, es decir, que la suma de las fuerzas internas y externas
ejercidas sobre la partícula en un instante es igual al producto de la masa de la partícula
por la segunda derivada respecto al tiempo de su posición en ese instante. De esta
segunda ley del movimiento de Newton se sigue trivialmente la primera, cuando
hacemos que la suma de las fuerzas sea cero. Los axiomas (8) y (9), finalmente,
corresponden a la tercera ley del movimiento de Newton, que dice que a toda acción
corresponde una reacción igual y de sentido contrario. Más precisamente (8) requiere
que la fuerza ejercida por la partícula q sobre la partícula p sea igual en magnitud y
opuesta en sentido a la ejercida por p sobre q, y (9) requiere que tales fuerzas se ejerzan
en la dirección de la línea que conecta ambas partículas (téngase en cuenta que ⊗ es
el producto vectorial).

Con esto podemos dar tres razones fundamentales por lo cual rechazar la
concepción de las teorías como sistemas axiomáticos:

i) En primer lugar, existen diversas axiomatizaciones para capturar nuestra idea


de “alguna teoría física”. Así la axiomatización de Suppes solo es una entre
varias. Y si se considera que todas las posibles axiomatizaciones que hagan
justicia a las proposiciones que Newton tomaba como verdaderas de su teoría
son axiomatizaciones válidas de la misma teoría física, por tanto, no es posible
identificar la teoría de Newton con alguna axiomatización en particular: si
cambia la axiomatización cambia la teoría (en sentido matemático).
ii) Asimismo, si identificamos a la mecánica clásica con algún conjunto de axiomas
que junto a la consecuencia lógica (puede ser clásica o no) cierre nuestro
sistema con los teoremas derivadas, aún si este sistema haga justicia a las
proposiciones verdaderas de Newton, tendríamos una consecuencia fatal: basta
con que algún teorema (predicción, en nuestro caso físico) resulte falsa para
que toda nuestra teoría física lo sea también. Esto es inconcebible, pues como
bien defendió Kuhn en su tiempo, las comunidades científicas conciben sus
teorías de modo más complejo de modo que aún si una predicción es falseada la
teoría no se ve perjudicada.
iii) Finalmente, usando la metáfora de Jesús Mosterín el mundo se nos escurre
entre las mallas de nuestras teorías(axiomáticas). Muchas axiomatizaciones
pensadas para modelos físicos resultan también satisfechas por modelos
matemáticos. Así, “la mecánica newtoniana de partículas es una teoría
consistente. Por tanto, tiene modelos. Y siempre que una teoría tiene modelos
de algún tipo, tiene también modelos numéricos. De hecho, los únicos modelos
seguros de la mecánica newtoniana de partículas son sus modelos numéricos, y
hay una infinidad de ellos” (Mosterín, 1984: 282). La consecuencia de esto es
fatal: si identificamos a la mecánica clásica con alguna axiomatización nos
comprometemos con la idea de alguna secuencia de números con algún tipo de
relación también es verdadero para una teoría que, exclusivamente, trata de
explicar fenómenos físicos.

Visto así el asunto, solo podemos decir que lo que identifica a una teoría
empírica no es otra cosa que los modelos que satisfacen a las diversas axiomatizaciones
posibles. Habíamos dicho que los filósofos de esta tradición no tenían un único
concepto de modelo. Así, si bien Bass C. Van Fraassen es el autor más representativo de
este periodo, lo cierto es que aa concepción más desarrollada de modelo ha sido la
forma conjuntista (y de teoría de modelos) presentada inicialmente por Suppes y
desarrollada detalladamente por el estructuralismo metateórico de Stegmüller, Balzer,
Sneed y Moulines.

Ahora bien, modelo es una palabra ambigua. Siguiendo a Mosterín y Olivé


podemos distinguir por lo menos dos conceptos de modelos: i) la interpretación que
hace verdadera a todos los axiomas de una teoría y ii) una maqueta que pretenda
representar algún sistema real. Así bajo la primera concepción el mundo real sería un
modelo mientras que, para la segunda, no.

Ahora de acuerdo a lo mencionado, la forma más seguida de definir modelo ha


sido la usada por la teoría de modelos que formaliza la primera acepción. Bajo esta
concepción un modelo es una estructura que “realiza” una axiomatización particular.

Por estructura (o sistema) tengamos:

De modo que y , de forma sencilla, un modelo sería una secuencia de objetos


relacionados con relaciones matemáticas.

Por lo demás, han sido los estructuralistas metateóricos los que más han
detallado esta cuestión. A su decir, una teoría seria <N, K> donde N es el núcleo teórico
y K el conjunto de modelos de aplicación intencionales.

Este no es espacio para desarrollar por completo sus ideas, sin embargo, se hace
necesario explicitar las razones de que estos hayan complejizado el asunto. En primer
lugar, es necesario restringir los “modelos parciales” y también es vital establecer
condiciones de ligaduras entre los diversos modelos de modo que, por ejemplo, si el
conceptor partícula en la mecánica clásica refiere a k en diversos modelos, por lo
menos, k debe tener la misma masa en todos los modelos.

Y no detallaremos estas cuestiones, pues lo que importa, para nuestro asunto es


otro problema: ¿es sugerente de que como dice Moulines (2011) la gran mayoría de
estos autores sean abiertamente antirrealistas? ¿Acaso hay algo que implica al
antirrealismo en concebir a las teorías como una familia de modelos?
Lo único cierto de esto es que en el seno de las concepciones semánticas el
realismo no ha muerto. Si bien, la noción de verdad (que es un concepto entre
estructuras y enunciados) es dejada de lado, por lo menos en términos de lenguaje
objeto, la relación entre modelos y el mundo no es abandonada en términos realistas.
En especial por dos autores realistas sumamente importantes: Ron Giere e Iikka
Niiniluoto. Para esto veamos una cita de este último:

“Ron Giere (1988) presenta una opinión similar diciendo que una teoría es
trivialmente cierta en un modelo definido, y el modelo es similar con el "sistema real"
en aspectos especificados y con grados especificados. De esta manera, Giere intenta
evitar el uso de los conceptos difíciles o bastardos de la verdad y de la verdad
aproximada.
Sin embargo, Giere no nota aquí que verdad + similitud = verosimilitud.
Más precisamente, una teoría puede ser definida como "aproximadamente verdadera"
si es verdadera en un modelo que es similar al sistema real (es decir, al fragmento del
mundo real que nos interesa en nuestra investigación). Una teoría sería "similar a la
verdad", si es similar a la declaración informativa más verdadera (de nuestro sistema
conceptual relevante). Si la teoría contiene hipótesis ideales contrafácticas, entonces
tiene que ser comparada con estados factuales a través de la "concretización", donde se
eliminan las idealizaciones” (1991, p. 160).

Vemos pues, como Ron Giere mantiene una posición realista pese a concebir de
forma semántica las teorías científicas al considerar una relación de similaridad entre
los sistemas reales y los modelos. En el caso de Niiniluoto la situación es más compleja.
Este filósofo trata de ser más riguroso que Giere cuando entiende al mundo como una
base de hechos posibles en un espacio-tiempo que "eligen" su aparto conceptual ("L") y
define verosimilitud en términos de distancia hacia el enunciado verdadero más
informativo en L. Asimismo, utiliza teoría bayesiana al momento de definir
probabilidad epistémica.

Ahora bien, la cuestión sobre si en efecto estas visiones han salvado al realismo
científico de la idea de que las concepciones semánticas son implícitamente
antirrealistas es una cuestión que discutiremos en las conclusiones.

FALTA: DETALLAR MUCHO MÁS LAS IDEAS DE GIERE Y


NIINILUOTO

5. Conclusiones

Pese a lo sofisticado del llamado realismo crítico de Niiniluoto (que pretende ser
más riguroso que el realismo constructivo de Giere) lo cierto es que no sortea
fácilmente la crítica de Moulines a Giere: "Los instrumentalistas o los antirrealistas
pueden muy bien aceptar que haya modelos más o menos adecuados a un cierto
dominio de la experiencia, mientras que otros no lo son. Pero si no se es un poco más
preciso que Giere sobre la naturaleza de los sistemas reales que determinan, por medio
de la relación de “semejanza suficiente”, que ciertos modelos son válidos y otros no, y si
el propio criterio de “semejanza suficiente” se deja al arbitrio de la comunidad científica
del momento, entonces el instrumentalista no se dejará impresionar. Como en el caso
de Suppe, aunque por otras razones, el "realismo, constructivo” de Giere se revela, al fin
peligrosamente próximo al pseudorealismo o a un verdadero instrumentalismo"
(Moulines, 2011, p. 133).

Y creemos que no supera esta objeción pues, el modo en el que Niiniluoto define
la elección del mundo a una estructura L que hace verdadera un lenguaje a lo Tarski
deja mucho que desear pues, ¿en qué consiste esa elección? Niiniluoto apela acá a
cuestiones de “acción racional” (¿qué tipo de racionalidad? PROYECTO 1:
DETALLAR AÚN MÁS LOS MODELOS DE RACIONALIDAD Y CRITICAR LA
VISIÓN FORMALISTA DE RACIONALIDAD QUE ASUME NIINILUOTO)
cosa que sigue siendo oscura. Adicionalmente, un le podría preguntar a Niiniluoto ¿por
qué usar lógica inductiva bayesiana para saber si nos acercamos a lo más verdadero en
L? Niiniluoto nuevamente es oscuro aquí. (PROYECTO 2: DETALLAR MÁS LAS
DIFICULTADES DE LA LÓGICA BAYESIANA PARA LA ELECCIÓN DE
TEORÍAS Y TRATAR DE ENCONTRAR MODELOS ALTERNATIVOS)

Con todo lo rico que puede ser el análisis de Niiniluoto, concluimos que cae bajo
la misma trampa de Suppe y Giere: son subrepticiamente antirrealistas disfrazados con
conceptos que son maleables y poco claros.

Sin embargo, a pesar de tener como insuficientes a los dos realismos aludidos,
creemos que las intuiciones realistas son las correctas. Quizá Moulines tiene razón
cuando nos dice que la filosofía de la ciencia es aún demasiado joven para responder a
la pregunta de si el éxito de las teorías científicas se puede explicar con la cada vez más
isomorfa relación entre el lenguaje de la ciencia y el mundo.

Así, podemos decir que defender el realismo es aún un proyecto. Y no solo eso,
sino un proyecto que empieza a progresar. El paso de las ideas de Hacking a las de
Giere y los desarrollos actuales de Niiniluoto son muestra de ello. Después de todo,
quizá estemos en el camino correcto.
6. Bibliografía

Diéguez Lucena, Antonio. Realismo científico, 1998, U. de Málaga.

Diez, José y Moulines, C. Ulises. Fundamentos de filosofía de la ciencia, 1997, Ariel.

Mosterín, Jesús. Conceptos y teorías en la ciencia, 1984, Alianza editorial.

Moulines, C. Ulises. El desarrollo moderno de la filosofía de la ciencia, 2011, UNAM.

Niiniluoto, Iikka. “Realism, relativism and constructivism” en Source: syntheses Vol.


89, 1991, Springer.

Olivé, León. “Realismo y antirrealismo científico en las concepciones semánticas de las


ciencia” en Crítica, 1984.

Van Fraassen, Bas C. La imagen científica, 1996, UNAM-Paidós.

Vous aimerez peut-être aussi