Vous êtes sur la page 1sur 48

El fanatismo no es privativo de una sola religión.

A excepción del
cristianismo, en su etapa primitiva y de restauración, prácticamente
la mayoría de las tradiciones religiosas han inspirado actos
irracionales de intolerancia, odio y violencia, tales como las masacres
de las cruzadas, los autos de fe de la inquisición, las guerras de
religión, etcétera.
Nadie puede negar que el fanatismo religioso –originado por la
mentalidad de que la herejía y el error no tienen derecho a existir–
inspiró en el pasado barbaridades como las cruzadas de los católicos
contra los infieles, y ha llevado a los musulmanes a lanzar “yihads” o
guerras santas contra los no islámicos.
En los últimos días, diversas voces han condenado las reacciones
violentas de los islamitas por el video “La inocencia de los
musulmanes”, el cual ridiculiza al profeta Mahoma, fundador del
Islam, “la más joven de las grandes religiones vivas, y la tercera
religión monoteísta luego del Judaísmo y del Cristianismo”; otros han
condenado el filme que promueve la intolerancia religiosa,
promocionado por Terry Jones, un pastor de una Iglesia de Florida
con antecedentes antimusulmanes: en 2011 llevó a cabo un tribunal
público y quemó un ejemplar del Corán, desatando innumerables
protestas en el mundo árabe.

Nadie en su sano juicio puede aprobar o justificar el asesinato del


embajador estadounidense en Libia, ni los violentos ataques
musulmanes a diversas embajadas y consulados de Estados Unidos
desde Libia a Pakistán; pero tampoco podemos ponderar la
producción de una película que representa al profeta Mahoma como
un hombre tonto y sediento de poder.
La Organización de las Naciones Unidas (ONU) –creada al término de
la segunda guerra mundial con el propósito de mantener la paz y la
seguridad en el mundo– condenó las numerosas y fanáticas
manifestaciones que han tenido lugar en los países árabes. Vannina
Maestracci, una de las portavoces del citado organismo, dio a
conocer que [Ban Ki-moon] “condena el odioso filme que aparenta
haber sido hecho deliberadamente para sembrar fanatismo y
derramamiento de sangre”. Agregó que “en este tiempo de tensiones
creciente, el secretario general pide calma y moderación, y subraya la
necesidad de diálogo, respeto mutuo y entendimiento”.

Hillary Clinton, por su parte, deslindó a los Estados Unidos de la


película ofensiva, señalando que su país no tiene “absolutamente
nada que ver”, y pidió a los “líderes responsables” frenar la violencia
contra las embajadas y consulados estadounidenses. La secretaria de
Estado de la Unión Americana reprobó “La inocencia de los
musulmanes”, filme que calificó como “repugnante y reprensible”.

En su reciente viaje al Líbano, el papa Benedicto XVI –sin referirse a la


película anti musulmán y a la violencia que ésta ha desencadenado
en los países que profesan el islamismo– hizo un llamado a “erradicar
el fundamentalismo religioso”, al que llamó una amenaza mortal, que
“aflige las comunidades religiosas y rechaza la convivencia secular
que caracterizan a países como el Líbano”.

A muchos les ha parecido correcto el discurso que el papa pronunció


en el Líbano, pidiendo el fin del integrismo y de la intolerancia
religiosa. Algunas de estas personas se han preguntado, al mismo
tiempo, lo siguiente: ¿por qué no pide lo mismo en los países donde
los católicos son mayoría, como es el caso de México y Brasil? ¿Por
qué cuando vino a Guanajuato no pidió a los católicos
tradicionalistas de Chiapas respetar la diversidad religiosa existente
en ese estado de la República Mexicana? A los evangélicos de
Chiapas y de todo México les hubiera gustado escuchar la condena
del papa a la intolerancia practicada por los católicos establecidos en
las comunidades de Los Altos de Chiapas.

La humanidad espera que las mayorías –judías, católicas o


musulmanas– respeten los derechos religiosos de las minorías, tal
como lo establece el artículo 18 de la Declaración Universal de los
Derechos Humanos, que a la letra dice: “Toda persona tiene derecho
a la libertad de pensamiento, de conciencia y de religión; este
derecho incluye la libertad de cambiar de religión o de creencia, así
como la libertad de manifestar su religión o su creencia, individual y
colectivamente, tanto en público como en privado, por la enseñanza,
la práctica, el culto y la observancia”.

El día que las religiones del mundo cumplan y respeten este


importantísimo instrumento jurídico internacional, empezaremos a
erradicar de nuestro entorno la amenaza de persecuciones, conflictos
y represiones por motivos religiosos.

MARCO TEORICO

la gravedad.

La gravedad en la tierra puede ser medida como mínimo de cuatro


formas diferentes:

1 mediante la caída libre de una carga testigo.


2 también mediante la oscilación de un péndulo en libre oscilación.

3 mediante el análisis de la oscilación de una masa pareja a un


muelle.
4 Bien mediante el análisis de las oscilaciones de una masa testigo
solidaria a una fibra. Los principios físicos que rigen las medidas de
estos fenómenos son bastante simples, no podemos decir lo mismo
del diseño de los aparatos para cuantificarlos y obtener una medida
del evento lo suficientemente buena como para que tenga una
eficacia técnica, y una precisión del valor de la gravedad acorde con
el trabajo a realizar. Actualmente debido a la alta precisión con que
se realizan los cálculos en cualquier trabajo de gravimetría, y debido
a la tecnología que se utiliza y el destino que va a tener,
independientemente del campo de aplicación (ya sea prospección o
la geodesia física) se hace recomendable trabajar con una precisión
de entre 10 y 100 igual. Otra característica que se le debe pedir a un
gravímetro es que el diseño de este permita la portabilidad, ya que
en otro caso este gravímetro sería inútil, excepto para centros de
investigación o estudios especiales. También hay que considerar que
el tiempo empleado para obtener una medida de la gravedad se
halle en un periodo razonable. Todo este requerimiento hace que el
diseño de un gravímetro, a pesar de la simplicidad de losprincipios
físicos en que se basan, sea complicado si se tienen que cumplir
todos los requerimientos vistos.

Medidas en caída libre.

Supongamos que una pequeña masa testigo es abandonada al vacío


desde una posición fija.

Otros factores a tener en cuenta en la medición de la gravedad por


caída libre es el efecto producido por la fricción de la atmósfera y los
movimientos del suelo, eventos que altérenla medición y las
condiciones de caída. La fricción atmosférica depende del material,
forma y de la velocidad de caída, del cuerpo y de la densidad de la
atmósfera. Normalmente bajo condiciones atmosféricas estándar se
obtiene una precisión en la medida de los valores de la gravedad de
10-3 g, lo cual implica una precisión muy baja. En condiciones de
vacío la fricción de la atmósfera se ve disminuida, las partículas de la
atmósfera se comportan como partículas simples, oponiendo estas
partículas una fuerza la caída de la masa de forma lineal, lo cual
posibilita el cálculo de esta fuerza de resistencia. Existen diferentes
métodos para reducir los efectos de la presión atmosférica. Una es la
medición en cámaras de alto vacío, siendo este proceso muy costoso
y puede provocar interferencias sobre los sistemas de medida. Otra
solución es la de establecer cámaras de vacío controladas por un
servo, a través del cual posteriormente se calcula el efecto provocado
por la atmósfera. El efecto provocado por microsismos tiene una
repercusión sobre los sensores ya que les produce un movimiento o
lo que es lo mismo una aceleración la cual se traduce en unas
medidas de la aceleración erróneas. La forma de evitar este error es,
mediante la realización de series de medidas, o bien mediante la
inclusión en el proceso de medidas de un sismómetro o acelerógrafo
que registre las aceleraciones y eliminarlas de las medidas
Torge,1989.
Medidas en caída libre.

Supongamos que una pequeña masa testigo es abandonada al vacío


desde una posición fija. La atracción gravitacional de la tierra g
produciría que dicha masa se precipitase al vacío realizando una
trayectoria de x m en un tiempo t, según la conocida ecuación: Esta
fórmula establece que el valor de la gravedad se determina
midiendo, t el tiempo decaída del objeto, y x la distancia recorrida.
En el supuesto de que esta masa fuese lanzada desde un metro de
altura tardaría en recorrer dicha distancia algo menos que medio
segundo lo cual estaría indicando una aceleración aproximada de
980 gas, en el caso que nos encontremos sobre la superficie terrestre.

Generalmente no se conoce con precisión la posición inicial de la


masa en caída libre ni el tiempo exacto de despegue, esto hace
obligatorio la toma de al menos tres medidas de tiempo t y de la
posición de la masa x, ya que (6.1) pasa a 6.3 En estas medidas la
precisión de la distancia y del tiempo debe ser muy alta. Si en
despejamos la aceleración y la obtenemos en función de t y x se
obtiene Que aplicando la ley de propagación de errores se resuelve
(Torge1989). Esto implica que para obtener una medida de g con
precisión de 0.1 mal se hace necesario medir la distancia con una
precisión de 10-5 cm, y el tiempo debería ser medido con una
precisión cercana a los 10-8 s. Esta precisión en las medidas no fue
posible hasta pasados los 60 cuando la tecnología electrónica y el
láser permitieron dichas operaciones. Otro factor a tener en cuenta
es que la gravedad no es homogénea, o lo que es lo mismo la
aceleración no es constante debido a que un cambio de posición
implica un cambio en los valores de la gravedad, quiere decir esto
que conforme el objeto descienda los valores de la gravedad van en
aumento como hemos visto en el tema 4(reducción aire-libre), la
corrección se puede encontrar en Torre, 1989 y en Cook, 1965.Otros
factores a tener en cuenta en la medición de la gravedad por caída
libre es el efecto producido por la fricción de la atmósfera y los
movimientos del suelo, eventos que altérenla medición y las
condiciones de caída. La fricción atmosférica depende del material,
forma y de la velocidad de caída, del cuerpo y de la densidad de la
atmósfera. Normalmente bajo condiciones atmosféricas estándar se
obtiene una precisión en la medida de los valores de la gravedad de
10-3 g, lo cual implica una precisión muy baja. En condiciones de
vacío la fricción de la atmósfera se ve disminuida, las partículas de la
atmósfera se comportan como partículas simples, oponiendo estas
partículas una fuerza la caída de la masa de forma lineal, lo cual
posibilita el cálculo de esta fuerza de resistencia. Existen diferentes
métodos para reducir los efectos de la presión atmosférica. Una es la
medición en cámaras de alto vacío, siendo este proceso muy costoso
y puede provocar interferencias sobre los sistemas de medida. Otra
solución es la de establecer cámaras de vacío controladas por un
servo, a través del cual posteriormente se calcula el efecto provocado
por la atmósfera. El efecto provocado por microsismos tiene una
repercusión sobre los sensores ya que les produce un movimiento o
lo que es lo mismo una aceleración la cual se traduce en unas
medidas de la aceleración erróneas. La forma de evitar este error es,
mediante la realización de series de medidas, o bien mediante la
inclusión en el proceso de medidas de un sismómetro o acelerógrafo
que registre las aceleraciones y eliminarlas de las medidas
Torge,1989.

Veamos un diseño de estos tipos de gravímetros basados en la caída


libre de una masa, el cual ha sido confeccionado mediante dos
prismas de reflexión troncocónicos (fig.6.1.). El gravímetro expuesto
en fig. 6.1 opera de la siguiente forma. El haz láser es emitido por un
diodo láser el cual se ve escindido en dos haces en la lente de
escisión mediante un partidor (vean splitter), tomando cada haz una
dirección perpendicular entre ellos, uno toma la dirección hacia un
prisma móvil superior y el otro haz una dirección hacía el prisma
estático. Ambos haces sufren reflexiones internas en ambos primas
volviendo Aser fundidos finalmente en un nuevo haz de
determinadas características. Debido al diferente recorrido de los
haces (conviene recordar que la luz láser es una luz coherente en
longitud y fase, el desfase de ambos haces produce un patrón
diferente de brillo),cuando de nuevo se vuelven a fundir los dos
haces en un mismo haz, genera un nuevo haz con unas características
diferentes al primero (por lo que se refiere a patrón de brillo).Ésta
composición diferente determina unas características de brillo en el
haz, y será cambiante en el tiempo ya que el prisma superior
sometido a una caída libre va cambiando su posición. Esto provoca
en el haz resultante una variación del brillo, dichas variaciones de
brillo (Luz, no Luz) una vez contadas, nos permite obtener la
distancia recorrida por el prisma y el tiempo tardado en recorrerlo,
este conteo se realiza mediante un sistema contador y multiplicador.
Este tipo de medición se realiza en unas condiciones
medioambientales estrictamente controladas. Las medidas se realizan
en una cámara al vacío. Como cualquier pequeño micro movimiento
del suelo puede producir errores es necesario que el experimento sea
repetido en varias ocasiones, usualmente en este tipo de gravímetros
la repetición es del orden de unas 50. La instrumentación montada
debe ser manejada con un gran cuidado. A pesar de que este
instrumento puede ser desmontado para su transporte el montaje
requiere de una gran precisión y de una calibración, lo cual revierte
en un gran consumo de tiempo.

El vocablo gravedad proviene etimológicamente del latín “gravis”


que nos indica algo importante o pesado. Así un asunto de gravedad
es aquello que es realmente importante. Por ejemplo decimos que
revisten gravedad las lesiones producto de un accidente que pueden
incapacitarnos, las enfermedades que ponen en riesgo la vida de los
seres vivos, o un error tan importante en el trabajo que puede
hacernos perder el empleo. La gravedad es a veces una cuestión
subjetiva. Hay casos en que la gravedad del problema es
incuestionable, como cuando le diagnostican a alguien una
enfermedad incurable, pero en otros casos dependerá de la
valoración de cada persona. Que a alguien le vaya mal en un examen
podrá ser para unos una experiencia edificante que le permitirá
encarar nuevamente el aprendizaje con mejores métodos, pero para
otros puede ser tan frustrante y de tanta gravedad, que lo incapacite
para volver a enfrentar la situación de examen, y puede llegar a
abandonar sus estudios

En Física, la gravedad o fuerza de gravedad, es la fuerza que se ejerce


en los cuerpos, la que depende de su masa. Fue Isaac Newton quien
formulo en el año 1685 la ley de gravedad que expresa que toda
partícula de materia existente en el universo, atrae a otra partícula
cualquiera, con una fuerza que es directamente proporcional al
producto de las masas de las dos partículas, e inversamente
proporcional al cuadrado de la distancia existente entre ambas. La
propiedad de la materia, que tiene la virtud de crear fuerza de
atracción, se denomina masa gravitatoria. Esta ley explica el
movimiento orbital del sistema planetario, y explica la gravedad
terrestre que hace que los objetos caigan hacia el centro de la Tierra
con aceleración constante.

La gravedad en física, es una de las cuatro interacciones o fuerzas


fundamentales. Origina la aceleración que experimenta un cuerpo
físico en las cercanías de un objeto astronómico. También se
denomina interacción gravitatoria o gravitación. Por efecto de la
gravedad tenemos la sensación de peso. Si estamos situados en las
proximidades de un planeta, experimentamos una aceleración
dirigida hacia la zona central de dicho planeta —si no estamos
sometidos al efecto de otras fuerzas. En la superficie de la Tierra, la
aceleración originada por la gravedad es 9,81 m/s2,
aproximadamente.

Pero el hecho más impresionante es que la gravedad es muy sencilla.


Es fácil enunciar por completo sus principios y no se ha dejado
ninguna ambigüedad para que alguien pueda cambiar los conceptos
sobre la ley. Es simple, por lo que es hermosa. Es simple en su
modelo. No me refiero a que sea simple en su acción -los
movimientos de los distintos planetas y las perturbaciones de uno
sobre el otro pueden ser bastante complicadas de resolver, y seguir
cómo se mueven todas esas estrellas en un cúmulo globular está más
allá de nuestra capacidad

«Presupone la imaginación popular que los seres espirituales deben


ser completamente independientes de la gravedad, mientras que
conservan las formas y proporciones que la gravitación haya fijado
inicialmente... Cuando los seres espirituales se hacen visibles ya sea a
los ojos del cuerpo o de nuestra visión interna, su objeto se vería
frustrado si no aparecieran en una forma reconocible, de modo que
su apariencia tomaría la forma del cuerpo y la ropa a los que nos
hemos acostumbrado. Materialidad, forma y espacio, me veo
obligado a creer, son condiciones temporales de nuestra existencia
actual. Es difícil concebir la idea de un ser espiritual que tenga un
cuerpo como el nuestro, condicionado por la exacta fuerza
gravitatoria ejercida por la tierra, y con los órganos que presuponen
la necesidad de alimentos y la necesidad de la eliminación de los
productos de desecho. Es igualmente difícil, encerrados y atados
como estamos por las ideas materialistas, el pensar en la inteligencia,
el pensamiento, y la voluntad existiendo sin forma ni materia y sin el
obstáculo de la gravitación o el espacio»

El nacimiento de neoprogs ha traído, como no puede ser de otra


manera, un debate sobre metodología entre diversos blogueros
izquierdistas que admiro. Por un lado Alberto Garzón et. al. critican el
individualismo metodológico y la elección racional que muchos de
los autores de neoprogs propugnan, y por otro Citoyen lo defiende.
Igualmente me quedaría con la exposición de Egócrata, como punto
intermedio y aclaratorio.

Todo esto, como siempre que pasa en el debate de la metodología


de las ciencias sociales, termina con comparaciones con las ciencias
empíricas, precisamente con la física. Y por ello quiero hacer algunas
matizaciones para intentar, a ver si lo consigo, poner ciertas
diferencias entre lo que es posible con el positivismo en ciencias
empíricas y lo que no es posible hacer en ciencias sociales con ese
mismo positivismo.

Yo a diferencia de ellos, soy un tipo venido de ciencias empíricas y


que luego su exigua labor investigadora (una tesina doctoral y poco
más) la ha realizado en las ciencias sociales. Por tanto mi análisis de
las metodologías de las ciencias sociales es como mínimo exótico.
Pero espero, precisamente por ese exotismo y por provenir de la más
positivista de todas las ciencias, poder aclarar aspectos sobre la
potencia de la “ley de la gravedad” en las ciencias sociales.

Antes de nada, quiero aclarar otra cosa: en metodología de las


ciencias sociales me defino como positivista, más heredero de
Durkheim que de Webber. Los relatos están muy bien, y a veces es lo
único que podemos conseguir (como en muchos estudios
antropológicos), pero los datos y la comprobación empírica es algo
que me gusta mucho más.

En ciencias empíricas me atrevo, a un nivel poco profundo, a definir 4


niveles de teorías o modelos. Cada uno con una capacidad y potencia
epistemológica diferente y decreciente.

El primero de ellos sería una teoría completa y que sabemos que


hasta el momento no tiene incongruencias y incompatibilidades con
la realidad empírica. Esto en física no existe (y por tanto en el resto
de ciencias empíricas tampoco, ya que todas eventualmente
terminan requiriendo de modelos físico). Esto sería la famosa “teoría
del todo”, una teoría que sabemos que es completa (describe la
realidad en toda su totalidad), capaz además de realizar predicciones
incluso sobre valores esenciales en física (como es el valor de “c”, o
las masas de cada uno de los quarks y leptones), y además que por
todas los intentos que se han hecho es matemáticamente consistente
y además coherente con todo los experimentos que se realizan y
todas sus predicciones son acertadas.

Esta teoría de grado 1, no existe, aunque gastamos miles de millones


de € en intentar encontrarla y horas y horas de trabajo de las mentes
más privilegiadas de este planeta para intentar acercarnos.

Hay otro conjunto de teorías o modelos de grado 2. Aquellos que


sabemos que matemáticamente son consistentes, sabemos que hasta
el momento sus predicciones son coherentes con los experimentos,
pero que sabemos que son incompletos. De estas teorías sólo me
atrevo a decir que hay un puñado muy pequeño. Por ejemplo, el
modelo estandard de partículas y todas las teorías que lo conforman:
la cromodinámica y la electrodinámica cuántica o la relatividad
general. El modelo estandard de partículas y los modelos de fuerzas
que le acompañan son muy resistentes a los intentos de asalto
experimentales, han predicho partículas antes de que las
detectáramos (y por eso andan bastante seguros en el LHC de que
más tarde o temprano encontraremos el boson de Higgs) y sus
predicciones cuantitativas adquieren un nivel de concordancia con el
experimento increiblemente asombroso (hasta el momento y debido
a las limitaciones de los aparatos de experimentación, estamos
seguros en algunas variables que la concordancia entre teoría y la
cifra real tienen una discrepancia como mínimo menor a una parte
sobre 10^19). El problema es que estos modelos sabemos que son
incompletos físicamente: por ejemplo el modelo estandard no
incluye la gravedad, o de un cierto nivel inferior de predicción: el
modelo estandard no predice que masas tienen las partículas
elementales, por poner un ejemplo de la docena larga de variables
que se definen por puro empirismo (hemos detectado el quark top y
por eso sabemos su masa, el modelo estandard sólo predijo que
existiría y que tendría una serie de variables pero no podía decirnos
que valor exacto tendría su masa antes de encontrarlo).

En este tipo de modelos sabemos que lo podemos aplicar en toda la


física que conocemos excepto en aquellos lugares donde sabemos
que son incompletos.

Por último tenemos modelos que sabemos que son incorrectos, hay
experimentos que han demostrado que sus predicciones no son
correctas, pero que aún nos son útiles (por la simplicidad de cálculos
o porqué para unas determinadas condiciones de partida sus
predicciones aún siguen siendo útiles). Un ejemplo de ello es la
gravedad newtoniana. Todo físico que se precie sabe que las
ecuaciones newtonianas de la fuerza de la gravedad son falaces. La
relatividad general es un modelo (incompleto) que nos es exacto
(hasta el momento ) (sería una teoría de nivel 2), y que describe con
mayor exactitud y rigor el fenómeno de la gravedad. Aún así la
mayoría de cálculos sobre gravedad en astrofísica se sigue utilizando
las ecuaciones newtonianas: los cálculos son más simples, y además
las ecuaciones newtonianas y relativistas se parecen mucho a bajos
niveles de masa y densidad (como en una galaxia, o como en la
proximidad de cuerpos celestes normales no muy masivos). Las
sondas espaciales son enviadas en trayectorias que calculan y
predicen los movimientos de los cuerpos del sistema solar que
utilizan las ecuaciones newtonianas… a pesar de que sabemos que
formalmente son incorrectas, siguen siendo útiles. Ejemplos de estos
los hay a patadas, y para un uso sencillo, casi todo lo que en Física
llamamos “ley” es una ley de tercer nivel… algo que sabemos que es
ley en un ámbito concreto.

Un cuarto nivel son leyes empíricas, es decir herramientas de


predicción que son útiles, aciertan pero que no están basadas en un
modelo más profundo. Un ejemplo de ello es la ley de Hook, ley que
se sigue utilizando para calcular la fuerza de retorno de muelles sin
ningún problema. Es una ley inductiva y no deductiva (a pesar que
algunas de estas leyes se han podido luego reformular pasados los
años a través de métodos deductivos).

Tanto el nivel 3 y 4 se rigen por el criterio de utilidad más que por el


de “son veraces”. Un ejemplo lo podemos encontrar en la
modelización de la capacidad calorífica de los sólidos rígidos. La
capacidad calorífica (a volumen constante) nos relaciona la cantidad
de energía térmica por unidad de masa que un sólido absorve con la
cantidad de temperatura que gana. A diversos rangos de
temperatura esta capacidad varía y evoluciona de forma distinta, en
unos rangos de energía bajos prevalece la capacidad de los
electrones atómicos de absorver energía térmica y el incremento de
temperatura corresponde más a la absorción de energía por los
electrones, a una temperatura algo mayor este papel lo juega las
vibraciones moleculares, por ejemplo, y así sabemos que para poder
describir como variará la capacidad calorífica según la energía que
vayamos suministrando o retirando o con respecto a la temperatura
tendremos hasta 4 modelos distintos que se aplican en fases distintas
del material.

En sistemas complejos donde hayan muchos fenómenos que


interactúan a veces será más util utilizar un modelo u otro. Y
dependerá del tipo de experimento que queramos hacer donde
aplicaremos un modelo u otro dependiendo que fuerza prevalezca
más.

Es muy simple y haré una afirmación categórica que no puedo


demostrar, pero que puedo argumentar. En ciencias sociales no
podemos encontrar ninguna teoría de modelo 1 o 2. O al menos
todos sus intentos han demostrado ser incorrectos. El modelo
austríaco para la economía es un modelo 3 disfrazado de 1. Parece
que todo se sostiene, es consistente matemática y lógicamente,
intenta describir un “todo” en el ámbito de la economía y se basa en
una serie de premisas que llegan de forma elegante y
praxeológicamente a unas conclusiones. Lo triste de todo ello es que
sabemos que sus conclusiones no concuerdan en miles de casos con
los resultados experimentales (o sea históricos). Tenemos un bonito
modelo que sabemos que es incorrecto para varias situaciones.

Por poner un ejemplo, cuando se intenta analizar el efecto de


aumentos de salario mínimo en algunos países con respecto al
empleo, se demuestra que la predicción austríaca no siempre se dá y
que posiblemente un modelo de “empleador monopsonista” sea más
acertado para describir las relaciones laborales de trabajadores con
habilidades normales (y no extremadamente excasos y por tanto con
una capacidad de negociación más de “tú a tú” con el empleador).

Aún así, comienza el problema, aún más grave, del relativismo con
respecto al empirismo. Los modelos económicos utilizan mucho el
“ceteris paribus” es decir “si ninguna otra variable se modifica”, algo
que es una contradicción en ciencias sociales. No podemos esperar
que una medida concreta (subir o bajar el salario mínimo) se
produzca sin que en un plazo mínimo para poder cuantificar sus
efectos reales, ninguna otra variable económica o social del mundo
haya cambiado. Hoy California aumenta el salario mínimo en 10
centavos de $, sus efectos se tendrían que notar pasados unos meses
en el nivel de contratación de los trabajadores de sueldos más bajos,
pero como a la semana ha subido el petróleo un céntimo ya
distorsiona la predicción austríaca que requería “ceteris paribus”.

Mal rollo para los positivistas, porqué ya nos enfrentamos a que los
teoricistas o más bien adeptos al relato (ya sea weberiano o
hayekiano) nieguen que los experimentos o los resultados empíricos
sirvan realmente como mecanismo de ratificación de los modelos.
Es decir, a la práctica, existan o no los modelos 1 o 2 teóricos, estos
no pueden ser tratados como tales, ya que la realidad social y
económica lo impiden.

Bien, entonces todos los modelos y “leyes de la gravedad” sociales


son de tipo 3 o 4. O son leyes que sabemos que sus predicciones en
algunos casos son incorrectas o son leyes que hemos inducido y son
de aplicación casi unifenomenológica.

Llego entonces a una conclusión demoledora, desde el positivismo y


el racionalismo más puro, TODOS los modelos sociales y económicos
han de responder al criterio de utilidad, y para determinados análisis
utilizaremos uno u otro dependiendo de que su capacidad predictiva
y su consonancia con los datos empíricos sea la mejor.

Por eso, después de haber estudiado los salarios mínimos, las


pérdidas y aumentos de empleo y haberme zampado algún que otro
sesudo estudio de la OCDE me atrevo a decir que cuando el salario
mínimo se encuentra por debajo de la mitad del salario medio de los
trabajadores el modelo que mejor se aplica para predecir su efecto
en el empleo es el de empleador monopsonista y por tanto
aumentos pequeños del salario mínimo suelen estar acompañados
de aumento de empleo, pero que a partir de un salario mínimo que
supere la mitad del salario medio de un país el modelo de mercado
perfecto se aplica y por tanto un mayor aumento del salario mínimo
irá acompañado de destrucción de empleo. Esto es una conclusión
refutable, pero desde el positivismo debería hacerse o bien con un
modelo más completo que sea capaz de englobar las conclusiones a
las que he llegado o refutar alguna de ellas con mejores datos (que
puedan, por ejemplo eliminar “ruido estadístico” y acercarnos más a
un análisis cumpliendo mejor el “ceteris paribus”).

Así yo discrepo básicamente con la existencia de una llamada “ley de


la gravedad” en las ciencias sociales, aún desde el positivismo más
radical no se puede afirmar de esta manera. Podemos decir que hay
“leyes de la gravedad restringida” y que la gracia está en poder
definir donde se aplican unos modelos con mayor potencia
predictiva y donde otros.

Por tanto yendo al núcleo de la cuestión: el modelo del


individualismo metodológico y la elección racional puede llevarnos a
conclusiones y predicciones mucho más potentes para una serie de
problemas de análisis social, y en cambio otros que incluyan factores
de asimetría en la información, o que introduzcan el llamado “efecto
del niño en la heladería” que añaden la irracionalidad en la toma de
decisiones (algo que aparece hasta en artículos serios que estudian
en casos reales el comportamiento humano en situaciones de
“juegos” de la teoría de juegos, donde aspectos como la verguenza,
el sentido de justicia, la generosidad, la envidia y muchos otros
condicionamientos socioculturales o emocionales llevan a que la
elección mayoritaria no sea la más racional), o que analicen un
problema social más desde un punto de vista de identidad personal
que contemple su relación con una identidad de grupo o nacional o
de clase ayuden a predecir mejor ciertos comportamientos sociales.
El método en sí, no es malo, el individualismo metodológico y la
elección racional proviene de un modelo y que diversos modelos
establecen métodos para analizar un problema social o económico
determinado. Simplemente, desde el positivismo es escoger el que
mejor predice para cada problema social. Yo mismo utilizo (sin
fijarme demasiado) este método al analizar las organizaciones
políticas en mi modelo mediócrata y en cambio me parece que los
métodos de Bourdieu, McLuhan o Eco son más útiles para analizar la
influencia de los mas-media en nuestra construcción simbólica de la
realidad.

Vous aimerez peut-être aussi