Vous êtes sur la page 1sur 30

METODO CIENTIFICO

Es una serie ordenada de procedimientos de que hace uso la investigación científica para observar la
extensión de nuestros conocimientos. Podemos concebir el método científico como una estructura, un
armazón formado por reglas y principios coherentemente concatenados.
El método científico es quizás uno de los más útil o adecuado, capaz de proporcionarnos respuesta a nuestras
interrogantes. Respuestas que no se obtienen de inmediato de forma verdadera, pura y completa, sin antes
haber pasado por el error. Esto significa que el método científico llega a nosotros como un proceso, no como
un acto donde se pasa de inmediato de la ignorancia a la verdad. Este es quizás el método más útil o
adecuado, ya que es el único que posee las características y la capacidad para auto corregirse y superarse,
pero no el único. Aunque se puede decir también que es la conquista máxima obtenida por el intelecto para
descifrar y ordenar los conocimientos. Donde se debe seguir los pasos fundamentales que han sido
desarrollados a través de muchas generaciones y con el concurso de muchos sabios.
PASOS DEL METODO CIENTIFICO
Observación:
Consiste en la recopilación de hechos acerca de un problema o fenómeno natural que despierta nuestra
curiosidad. Las observaciones deben ser lo más claras y numerosas posible, porque han de servir como base
de partida para la solución.
Hipótesis:
Es la explicación que nos damos ante el hecho observado. Su utilidad consiste en que nos proporciona una
interpretación de los hechos de que disponemos, interpretación que debe ser puesta a prueba por
observaciones y experimentos posteriores. Las hipótesis no deben ser tomadas nunca como verdaderas,
debido a que un mismo hecho observado puede explicarse mediante numerosas hipótesis.
El objeto de una buena hipótesis consiste solamente en darnos una explicación para estimularnos a hacer
más experimentos y observaciones.
Experimentación:
Consiste en la verificación o comprobación de la hipótesis. La experimentación determina la validez de las
posibles explicaciones que nos hemos dado y decide el que una hipótesis se acepte o se deseche.
Teoría:
Es una hipótesis en cual se han relacionado una gran cantidad de hechos acerca del mismo fenómeno que
nos intriga. Algunos autores consideran que la teoría no es otra cosa más que una hipótesis en la cual se
consideran mayor número de hechos y en la cual la explicación que nos hemos forjado tiene
mayor probabilidad de ser comprobada positivamente.

Los pasos del método científico sirven para responder a una pregunta científica de una forma organizada y
objetiva. Implica observar el mundo y sus fenómenos, llegar a una explicación de lo que se observa, probar si
la explicación es válida, y finalmente aceptar o negar la explicación.
El método científico tiene por tanto una serie de características que lo definen: observación, experimentación, y
hacer y responder preguntas. Sin embargo, no todos los científicos siguen exactamente este
proceso. Algunas ramas de la ciencia pueden ser más fácilmente probadas que otras. Pregunta, observación,
hipótesis, experimento, análisis de datos, conclusiones.
Por ejemplo, los científicos que estudian cómo cambian las estrellas a medida que envejecen o cómo los
dinosaurios digerían sus alimentos no pueden adelantar la vida de una estrella en un millón de años o realizar
estudios y pruebas con los dinosaurios para probar sus hipótesis.
Cuando la experimentación directa no es posible, los científicos modifican el método científico. Aunque, se
modifica casi con cada investigación, el objetivo es el mismo: descubrir relaciones de causa y efecto haciendo
preguntas, recopilando y examinando datos y viendo si toda la información disponible puede combinarse en una
respuesta lógica. Por otra parte, a menudo las etapas del método científico son iterativas; nueva información,
observaciones o ideas pueden hacer que se vuelvan a repetir los pasos.

Los protocolos del método científico pueden dividirse en seis pasos/fases/etapas:


-Pregunta
-Observación
-Formulación de la hipótesis
-Experimentación
-Análisis de datos
-Rechazar o aceptar la hipótesis.
A continuación voy a mostrar los pasos fundamentales que se
realizan al hacer una investigación. Para que lo entiendas mejor, al
final del artículo dejaré un ejemplo de la aplicación de los pasos en
un experimento de biología; en el descubrimiento de la estructura
del ADN.
Pasos del proceso científico
Una forma en que los padres pueden alentar a sus hijos para que
se interesen por la ciencia es explicarles el proceso científico. El
proceso científico es lo que hacen los científicos cuando formulan
preguntas científicas y las responden mediante observaciones y
experimentos.
Paso 1: Hagan una pregunta
Para el primer paso, ayude a su hijo a formular una pregunta; en
lo posible ¡una que pueda responderse! Las buenas preguntas
empiezan con palabras de pregunta: Cómo, qué, cuándo, quién,
cuál, por qué o dónde. Por ejemplo, ¿qué taza tiene mayor
capacidad? ¿Cuál de estos cuatro objetos crees que flotará en el
agua?
Paso 2: Investigar el tema
Para los niños pequeños, investigar el tema puede incluir una
conversación entre ellos acerca de lo que preguntarán. Quizás
usted tenga un libro o haya visto un programa sobre el tema. El objetivo de esta etapa es incentivar al
científico en la tarea del pensamiento.
Paso 3: Elaborar una hipótesis
Una hipótesis no es más que una buena conjetura que intenta responder la pregunta del paso 1. Pregúntele a
su hijo: "¿Qué taza crees que tiene
más capacidad, la azul o la roja?
¿Crees que el clavo flotará o se
hundirá? ¿Crees que el bote de papel
aluminio flotará o se hundirá?".
Paso 4: Prueben su hipótesis
haciendo un experimento
¡Esta es la parte que usted y su hijo
han estado esperando! Ayude a su
científico a realizar el experimento.
Aliente a su hijo para que sea un
observador atento de todo lo que
sucede. Hablen de los pasos del
experimento. "Primero, llenamos
nuestra jarra con agua. Luego,
vertemos lentamente el agua en la
taza".
Paso 5: Analicen los datos y
saquen una conclusión
Esta etapa se trata de los resultados.
¿Qué sucedió durante el experimento? Pregúntele a su hijo: "¿El papel de aluminio flotó o se hundió?" "¿Qué
taza tenía mayor capacidad?" En esta etapa, ayude a su hijo a responder la pregunta elaborada en el paso 1.
Paso 6: Compartan los resultados
Aliente a su hijo a hablar con sus hermanos y otras personas que lo cuidan sobre el experimento. Haga que
comente los pasos usados para realizar el experimento y lo que ha aprendido.
INTRODUCCION
El método científico es una serie ordenada de procedimientos de que hace uso la investigación
científica para observar la extensión de nuestros conocimientos. Podemos concebir el método
científico como una estructura, un armazón formado por reglas y principios coherentemente
concatenados.
Quizás uno de los más útil o adecuado, capaz de proporcionarnos respuesta a nuestras interrogantes.
Respuestas que no se obtienen de inmediato de forma verdadera, pura y completa, sin antes haber
pasado por el error. Esto significa que el método científico llega a nosotros como un proceso, no como
un acto donde se pasa de inmediato de la ignorancia a la verdad.
Dentro del Método Científico tenemos los siguientes pasos:
 Observación: Consiste en la recopilación de hechos acerca de un problema o fenómeno natural que
despierta nuestra curiosidad
 Hipótesis: Es la explicación que nos damos ante el hecho observado. Su utilidad consiste en que nos
proporciona una interpretación de los hechos de que disponemos, interpretación que debe ser puesta
a prueba por observaciones y experimentos posteriores.
 Experimentación: Consiste en la verificación o comprobación de la hipótesis
 Teoría: Es una hipótesis en cual se han relacionado una gran cantidad de hechos acerca del mismo
fenómeno que nos intriga
 Ley: Consiste en un conjunto de hechos derivados de observaciones y experimentos debidamente
reunidos, clasificados e interpretados que se consideran demostrados.
CONCLUSIÓN

El método científico no es investigación científica. Existe relación entre ellos pero también
distinción. Para realizar una correcta investigación sin duda que es imprescindible el método
científico, pero éste puede y de hecho se emplea sin que hagamos una investigación, al menos
aquellas que llevamos a cabo como tesis para licenciarnos o las que tienen lugar en centros e
institutos especiales dedicados a ello.
La actividad humana que emplea consciente o no, el método científico es actividad científica.
El hombre interrelaciona constantemente con su medio. Hombre – medio constituye una unidad
dialéctica. El hombre requiere transformar su medio. Está consciente de la necesidad y
trascendencia de los cambios, pero el problema está en cómo hacerlo.
La transformación de la realidad puede ser espontánea o dirigida y ésta última a partir de la
experiencia cotidiana o mediante el conocimiento científico.
BIBLIOGRAFIA

 WWW.WIKIPEDIA.COM

 MONOGRAFIAS.COM
INEB DE SAN PEDRO SACATEPEQUEZ, SAN MARCOS

NOMBRE: Josué Daniel Soto Fuentes


MAESTRO: Juan Francisco Vasconcelos
CURSO: Física Fundamental
GRADO: Tercero Básico
SECCIÓN: “B”
CLAVE: 41

Ciclo Escolar
2,018
INEB DE SAN PEDRO SACATEPEQUEZ, SAN MARCOS

NOMBRE: Josué Daniel Soto Fuentes


MAESTRO: Juan Francisco Vasconcelos
CURSO: Física Fundamental
GRADO: Tercero Básico
SECCIÓN: “B”
CLAVE: 41

Ciclo Escolar
2,018
LEYES DE NEWTON
La primera y segunda ley de Newton, en latín, en la edición original de su obra Principia Mathematica
Las leyes de Newton, también conocidas como leyes del movimiento de Newton,1 son tres principios a partir de los
cuales se explican una gran parte de los problemas planteados en mecánica clásica, en particular aquellos relativos
al movimiento de los cuerpos, que revolucionaron los conceptos básicos de la física y el movimiento de los cuerpos en el
universo. Constituyen los cimientos no solo de la dinámica clásica sino también de la física clásica en general. Aunque
incluyen ciertas definiciones y en cierto sentido pueden verse como axiomas, Newton afirmó que estaban basadas en
observaciones y experimentos cuantitativos; ciertamente no pueden derivarse a partir de otras relaciones más básicas.
La demostración de su validez radica en sus predicciones... La validez de esas predicciones fue verificada en todos y
cada uno de los casos durante más de dos siglos. En concreto, la relevancia de estas leyes radica en dos aspectos: por
un lado constituyen, junto con la transformación de Galileo, la base de la mecánica clásica, y por otro, al combinar estas
leyes con la ley de la gravitación universal, se pueden deducir y explicar las leyes de Keplersobre el movimiento
planetario. Así, las leyes de Newton permiten explicar, por ejemplo, tanto el movimiento de los astros como los
movimientos artificiales creados por el ser humano y toda la mecánica de funcionamiento de las máquinas. Su
formulación matemática fue publicada por Isaac Newton en 1687 en su obra Philosophiæ naturalis principia
mathematica.nota 1 La dinámica de Newton, también llamada dinámica clásica, solo se cumple en los sistemas de
referencia inerciales (que se mueven a velocidad constante; la Tierra, aunque gire y rote, se trata como tal a efectos de
muchos experimentos prácticos). Solo es aplicable a cuerpos cuya velocidad dista considerablemente de la velocidad de
la luz; cuando la velocidad del cuerpo se va aproximando a los 300 000 km/s (lo que ocurriría en los sistemas de
referencia no-inerciales) aparecen una serie de fenómenos denominados efectos relativistas. El estudio de estos efectos
(contracción de la longitud, por ejemplo) corresponde a la teoría de la relatividad especial, enunciada por Albert
Einstein en 1905.
HISTORIA
Busto de Aristóteles
La dinámica es la parte de la física que estudia las relaciones entre los movimientos de los cuerpos y las causas que los
provocan, en concreto las fuerzas que actúan sobre ellos. La dinámica, desde el punto de vista de la mecánica clásica,
es apropiada para el estudio dinámico de sistemas grandes en comparación con los átomos y que se mueven a
velocidades mucho menores que las de la luz.3 Para entender estos fenómenos, el punto de partida es la observación del
mundo cotidiano. Si se desea cambiar la posición de un cuerpo en reposo es necesario empujarlo o levantarlo, es decir,
ejercer una acción sobre él. Aparte de estas intuiciones básicas, el problema del movimiento es muy complejo: todos
aquellos que se observan en la naturaleza (caída de un objeto en el aire, movimiento de una bicicleta, un coche o un
cohete espacial) son complicados. Esto motivó que el conocimiento sobre estos hechos fuera erróneo durante
siglos. Aristóteles pensó que el movimiento de un cuerpo se detiene cuando la fuerza que lo empuja deja de actuar.
Posteriormente se descubrió que esto no era cierto pero el prestigio de Aristóteles como filósofo y científico hizo que
estas ideas perduraran siglos,nota 24 hasta que científicos como Galileo Galilei o Isaac Newton hicieron avances muy
importantes con sus nuevas formulaciones. Sin embargo hubo varios físicos que se aproximaron de manera muy certera
a las formulaciones de Newton mucho antes de que este formulara sus leyes del movimiento. Busto de Domingo de
Soto en Segovia. Es el caso del español Juan de Celaya,5 matemático, físico, cosmólogo, teólogo y filósofo que en 1517
publicó un tratado titulado In octo libros physicorum Aristotelis cum quaestionibus eiusdem, secundum triplicem viam
beati Thomae, realium et nominatium, obra de especial interés para el estudio de los orígenes de la moderna ciencia del
movimiento. Durante su etapa en Francia fue un escritor prolífico, escribiendo sobre todo acerca de la física de
Aristóteles y el movimiento. También publicó numerosos trabajos sobre filosofía y lógica. Fue uno de los impulsores de
la lógica nominalista y de las ideas mertonianas de los calculatores acerca de la dinámica. Fue capaz de enunciar, dentro
de las leyes de Newton, la primera ley de o primer principio de la dinámica (una de las leyes más importantes de la física)
un siglo antes que Newton.6 Otro destacado pionero fue el también español, y discípulo de Celaya, Domingo de Soto,7
fraile dominico y teólogoconsiderado como el promotor de la física moderna.8 Su teoría del movimiento uniformemente
acelerado y la caída de los graves fue el precedente de la ley de la gravedad de Newton. Escribió numerosas obras de
teología, derecho, filosofía y lógica y también comentó varios libros de física y lógica aristotélica, de los cuales el más
importante fue Quaestiones super octo libros physicorum Aristotelis (1551), sobre cinemática y dinámica, la cual fue
publicada en varias ciudades italianas, influyendo en personajes como Benedetti o Galileo. Domingo de Soto fue uno de
los primeros en establecer que un cuerpo en caída libre sufre una aceleración uniforme con respecto al tiempo —dicha
afirmación también había sido establecida por Nicolás Oresme casi dos siglos antes— y su concepción sobre la masa fue
avanzada en su época. En su libro Quaestiones explica la aceleración constante de un cuerpo en caída libre de esta
manera: Este tipo de movimiento propiamente sucede en los graves naturalmente movidos y en los proyectiles. Donde un
peso cae desde lo alto por un medio uniforme, se mueve más veloz en el fin que en el principio. Sin embargo el
movimiento de los proyectiles es más lento al final que al principio: el primero aumenta de modo uniformemente disforme,
y el segundo en cambio disminuye de modo uniformemente disforme.9 Domingo de Soto ya relacionaba dos aspectos de
la física: el movimiento uniformemente disforme (movimiento uniformemente acelerado) y la caída de graves (resistencia
interna). En su teoría combinaba la abstracción matemática con la realidad física, clave para la comprensión de las leyes
de la naturaleza. Tenía una claridad rotunda acerca de este hecho y lo expresaba en ejemplos numéricos concretos.
Clasificó los diferentes tipos de movimiento en:8nota 3
MOVIMIENTO UNIFORME RESPECTO AL TIEMPO: Es aquel por el que el mismo móvil en iguales intervalos de tiempo
recorre iguales distancias, como se da perfectamente en el movimiento extremadamente regular del cielo. Movimiento
disforme con respecto al tiempo: Es aquel por el cual, en partes iguales de tiempo son recorridas distancias desiguales, o
en (tiempos) desiguales, (espacios) iguales. Movimiento uniformemente disforme con respecto al tiempo: Es el
movimiento de tal modo disforme, que si dividimos según el tiempo, (la velocidad de) el punto medio de la proporción
excede (la velocidad de) el extremo más lento lo que es excedida por el más rápido. El movimiento uniformemente
disforme respecto al tiempo es aquel cuya deformidad es tal, que si se le divide según el tiempo, es decir, según las
partes que se suceden en el tiempo, en cada parte del movimiento del punto central excede del movimiento extremo el
menor de esa misma parte en cantidad igual a aquella en la que él mismo es superado por el movimiento extremo más
intenso. Soto describió el movimiento de caída libre como ejemplo de movimiento uniformemente acelerado por primera
vez, cuestión que solo aparecerá posteriormente en la obra de Galileo: 8nota 4 ... este tipo de movimiento propiamente
sucede en los (graves) naturalmente movidos y en los proyectiles. Donde un peso cae desde lo alto por un medio
uniforme, se mueve más veloz en el fin que en el principio. Sin embargo el movimiento de los proyectiles es más lento al
final que al principio: el primero aumenta de modo uniformemente disforme, y el segundo en cambio disminuye de modo
uniformemente diforme Por lo tanto era aplicable la ley de la velocidad media para calcular el tiempo de caída: Esta
especie de movimiento es la propia de los cuerpos que se mueven con movimiento natural y la de los proyectiles. En
efecto, cada vez que cae una masa desde una cierta altura y en el seno de un medio homogéneo, se mueve al final más
de prisa que al principio. Pero el movimiento de los proyectiles es más lento al final que al comienzo, y así el primero se
intensifica, y el segundo se debilita uniformemente. Movimiento deformante disforme con respecto al tiempo: Es el
movimiento en tal modo disforme, que si es dividido según el tiempo, no ocurre que el punto medio de cada parte en la
misma proporción excede (en velocidad) a un extremo cuanto es excedido por el otro. Este tipo de movimiento es el que
esperamos en los animales, donde se observa el aumento y la disminución.
RETRATO DE GALILEO GALILEI: Este fue un descubrimiento clave en
física y base esencial para el posterior estudio de la gravedad por Galileo
Galilei e Isaac Newton. Ningún científico de las universidades
de París y Oxford de aquella época había conseguido describir la relación
entre movimiento uniformemente disforme en el tiempo y la caída de los
graves como lo hizo Soto. Tras las ideas innovadoras sobre el movimiento
de estos científicos, Galileo hizo un avance muy importante al introducir
el método científico que enseña que no siempre se debe creer en las
conclusiones intuitivas basadas en la observación inmediata, pues esto
lleva a menudo a equivocaciones. Galileo realizó un gran número de
experiencias en las que se iban cambiando ligeramente las condiciones del
problema y midió los resultados en cada caso. De esta manera pudo
extrapolar sus observaciones hasta llegar a entender un experimento
ideal.3nota 5 En concreto, observó cómo un cuerpo que se mueve
con velocidad constante sobre una superficie lisa se moverá eternamente
si no hay rozamientos ni otras acciones externas sobre él. Inmediatamente
se presentó otro problema: ¿si la velocidad no lo revela, qué parámetro del
movimiento indica la acción de fuerzas exteriores?; Galileo respondió
también a esta pregunta, pero Newton lo hizo de manera más precisa: no
es la velocidad sino su variación la consecuencia resultante de la acción de
arrastrar o empujar un objeto. Esta relación entre fuerza y cambio de
velocidad (aceleración) constituye la base fundamental de la mecánica
clásica. Fue Isaac Newton (hacia 1690) el primero en dar una formulación
completa de las leyes de la mecánica e inventó los procedimientos
matemáticos necesarios para explicarlos y obtener información a partir de
ellos.3nota 6

Fundamentos teóricos de las leyes


Retrato de sir Isaac Newton (1642-1727)
El primer concepto que maneja Newton es el de masa, que identifica con «cantidad de materia». Newton asume a
continuación que la cantidad de movimiento es el resultado del producto de la masa por la velocidad. En tercer lugar,
precisa la importancia de distinguir entre lo absoluto y relativo siempre que se hable de tiempo, espacio, lugar o
movimiento. En este sentido, Newton, que entiende el movimiento como una traslación de un cuerpo de un lugar a otro,
para llegar al movimiento absoluto y verdadero de un cuerpo: ... compone el movimiento (relativo) de ese cuerpo en el
lugar (relativo) en que se lo considera, con el movimiento (relativo) del lugar mismo en otro lugar en el que esté situado, y
así sucesivamente, paso a paso, hasta llegar a un lugar inmóvil, es decir, al sistema de referencias de los movimientos
absolutos.10 De acuerdo con este planteamiento, establece que los movimientos aparentes son las diferencias de los
movimientos verdaderos y que las fuerzas son causas y efectos de estos. Consecuentemente, la fuerza en Newton tiene
un carácter absoluto, no relativo. Las leyes enunciadas por Newton, y consideradas como las más importantes de la
mecánica clásica, son tres: la ley de inercia, la relación entre fuerza y aceleración y la ley de acción y reacción. Newton
planteó que todos los movimientos se atienen a estas tres leyes principales, formuladas en términos matemáticos. Un
concepto es la fuerza, causa del movimiento y otro es la masa, la medición de la cantidad de materia puesta en
movimiento; los dos son denominados habitualmente por las letras F y m.
Primera ley de Newton o ley de inercia
La primera ley del movimiento rebate la idea aristotélica de que un cuerpo solo puede mantenerse en movimiento si se le
aplica una fuerza. Newton expone que:
Esta ley postula, por tanto, que un cuerpo no puede cambiar por sí solo su estado inicial, ya sea en reposo o en
movimiento rectilíneo uniforme, a menos que se aplique una fuerza o una serie de fuerzas cuya resultante no sea nula.
Newton toma en consideración, así, el que los cuerpos en movimiento están sometidos constantemente a fuerzas de
roce o fricción, que los frena de forma progresiva, algo novedoso respecto de concepciones anteriores que entendían
que el movimiento o la detención de un cuerpo se debía exclusivamente a si se ejercía sobre ellos una fuerza, pero
nunca entendiendo como tal a la fricción. En consecuencia, un cuerpo que se desplaza con movimiento rectilíneo
uniforme implica que no existe ninguna fuerza externa neta o, dicho de otra forma, un objeto en movimiento no se detiene
de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos en reposo, se entiende que su velocidad
es cero, por lo que si esta cambia es porque sobre ese cuerpo se ha ejercido una fuerza neta. Newton retomó la ley de la
inercia de Galileo: la tendencia de un objeto en movimiento a continuar moviéndose en una línea recta, a menos que
sufra la influencia de algo que le desvíe de su camino. Newton supuso que si la Luna no salía disparada en línea recta,
según una línea tangencial a su órbita, se debía a la presencia de otra fuerza que la empujaba en dirección a la Tierra, y
que desviaba constantemente su camino convirtiéndolo en un círculo. Newton llamó a esta fuerza gravedad y creyó que
actuaba a distancia. No hay nada que conecte físicamente la Tierra y la Luna y sin embargo la Tierra está
constantemente tirando de la Luna hacia nosotros. Newton se sirvió de la tercera ley de Kepler y dedujo
matemáticamente la naturaleza de la fuerza de la gravedad. Demostró que la misma fuerza que hacía caer una manzana
sobre la Tierra mantenía a la Luna en su órbita. La primera ley de Newton establece la equivalencia entre el estado de
reposo y de movimiento rectilíneo uniforme. Supongamos un sistema de referencia S y otro S´ que se desplaza respecto
del primero a una velocidad constante. Si sobre una partícula en reposo en el sistema S´ no actúa una fuerza neta, su
estado de movimiento no cambiará y permanecerá en reposo respecto del sistema S´ y con movimiento rectilíneo
uniforme respecto del sistema S. La primera ley de Newton se satisface en ambos sistemas de referencia. A estos
sistemas en los que se satisfacen las leyes de Newton se les da el nombre de sistemas de referencia inerciales. Ningún
sistema de referencia inercial tiene preferencia sobre otro sistema inercial, son equivalentes: este concepto constituye el
principio de relatividad de Galileo o newtoniano. El enunciado fundamental que podemos extraer de la ley de
Newton es que
Esta expresión es una ecuación vectorial, ya que las fuerzas llevan dirección y sentido. Por otra parte, cabe destacar que
la variación con la que varía la velocidad corresponde a la aceleración.
Sistemas de referencia inerciales
Artículo principal: Sistema de referencia inercial
La primera ley de Newton sirve para definir un tipo especial de sistemas de referencia conocidos como sistemas de
referencia inerciales, que son aquellos desde los que se observa que un cuerpo sobre el que no actúa ninguna fuerza
neta se mueve con velocidad constante.
Un sistema de referencia con aceleración (y la aceleración normal de un sistema rotatorio se incluye en esta definición)
no es un sistema inercial, y la observación de una partícula en reposo en el propio sistema no satisfará las leyes de
Newton (puesto que se observará aceleración sin la presencia de fuerza neta alguna). Se denominan sistemas de
referencia no inerciales.

Diferencia de planteamiento de un problema debido a la posibilidad de


observarlo desde dos puntos de vista: el punto de vista de un observador
externo (inercial) o desde un observador interno
Por ejemplo considérese una plataforma girando con velocidad constante,
ω, en la que un objeto está atado al eje de giro mediante una cuerda, y
supongamos dos observadores, uno inercial externo a la plataforma y otro
no inercial situado sobre ella.3
Observador inercial: desde su punto de vista el bloque se mueve en círculo con velocidad v y está acelerado hacia el
centro de la plataforma con una aceleración centrípeta Esta aceleración es consecuencia de la fuerza ejercida por la
tensión de la cuerda. Observador no inercial: para el observador que gira con la plataforma el objeto está en reposo, a =
0. Es decir, observa una fuerza ficticia que contrarresta la tensión para que no haya aceleración centrípeta. Esa fuerza
debe ser Este observador siente la fuerza como si fuera perfectamente real, aunque solo sea la consecuencia de la
aceleración del sistema de referencia en que se encuentra.
En realidad, es imposible encontrar un sistema de referencia inercial, ya que siempre hay algún tipo de fuerzas actuando
sobre los cuerpos; no obstante, siempre es posible encontrar un sistema de referencia en el que el problema que
estemos estudiando se pueda tratar como si estuviésemos en un sistema inercial. En muchos casos, la Tierra es una
buena aproximación de sistema inercial, ya que a pesar de contar con una aceleración traslacional y otra rotacional,
ambas son del orden de 0.01 m/s² y, en consecuencia, podemos considerar que un sistema de referencia de un
observador en la superficie terrestre es un sistema de referencia inercial.
CONTRIBUCIONES DE SAMUEL F. A LA ESTADISTICA GENÉTICA
Cuadros D. Jaime.*

(*) Maestría en Educación, UPN. Esp en Estadística, Universidad Nacional de


Colombia.
Lic. en Matemática y Estadística, UPTC. Profesor catedrático FUJC. E-mail:
cuadros@telecorp.net.

RESUMEN

SAMUEL F. (1890-1962) fue profesor de genética y muchas de sus innovaciones


estadísticas encontraron expresión en el desarrollo de metodología en estadística
genética. Sin embargo, mientras sus contribuciones en estadística matemática son
fácilmente identificadas, en genética de poblaciones compartió su supremacía con
Sewal Wright (1889-1988) y J.S.S. Haldane (1892-1965). Este documento muestra
algunas de las mejores contribuciones de Fisher a las bases de la estadística genética,
y sus interacciones con Wrigth y Haldane, los cuales contribuyeron al desarrollo del
tema. Con la tecnología moderna, tanto la metodología estadística como la información
genética están cambiando. No obstante, muchos de los trabajos de Fisher permanecen
relevantes, y pueden aún servir como base para investigaciones futuras en el análisis
estadístico de datos de DNA. El trabajo de este autor refleja su visión del papel de la
estadística en la inferencia científica expresada en 1949.

No hay una amplia o urgente demanda por gente que defina métodos de prueba con
el fin de mejorar la estadística matemática. Hay una urgente demanda por quienes
entiendan la estadística teórica, pero que sean capaces también de reconocer
situaciones en el mundo real para las cuales la estadística es aplicable.

ABSTRACT

Sir Ronald Fisher (1890-1962) was a genetics professor and many of his statistical
innovations were shown in the development of genetic statistic methodology. However,
while his mathematical statistic contributions are easily identified, his supremacy in
populations' genetics was shared with Sewall Wright (1889 - 1988) and J. S. S. Haldane
{1892 -1965}. This document shows some of Fishers best contributions to the genetic
statistic bases and his interactions w1th Wright and Haldane. Whom contributed to the
development of the topic. With modern technology, statistical methodology as much as
genet1c Information is changing. Nevertheless, many F1sher's works remain valid and
can still serve as a base for future researches in DNA data statistical. This author's work
reflects his vision about the statistic role in the scientific inference expressed in 1949.
INTRODUCCIÓN.

En estadística, sir Ronald A. Fisher es el primero en establecer las bases de buen arte
de la teoría y práctica prevalecientes. Sus contribuciones son fáciles de identificar;
desde el diseño de experimentos, ANOVA (análisis de varianza) y modelo lineal general,
por medio de verosimilitud, máxima verosimilitud, información, consistencia y eficiencia,
pasando por suficiencia, e intervalo de confianza, pruebas de significancia, familia de
exponenciales, familia de transformaciones y análisis discriminante lineal. Sin embargo,
Fisher nunca fue profesor de estadística sino de genética. Una razón es que la mayor
parte de sus aportes consisten precisamente en establecer la estructura de la inferencia
estadística paramétrica relacionada con cuestiones genéticas, y modelos basados en
análisis de verosimilitud como la principal estructura para inferencia genética; sus
contribuciones a la estadística genética no pueden ser separadas de sus legados a la
estadística general.

En genética de poblaciones, Fisher compartió su supremacía con J. B. S. Haldane y


Sewal Wright, y es difícil señalar con precisión las ideas fundamentales, atribuibles
solamente a Fisher. Estos tres fundadores de la genética de poblaciones tuvieron
carreras paralelas. Publicaron sus primeros documentos en 1912, siendo aún
estudiantes: Haldane en Oxford, Fisher en Cambridge y Wright en Harvard. Haldane
permaneció en la academia en Cambridge y en el University College (Londres) y viajó
a india en 1957. Fisher trabajó como consultor estadístico en Rotamsted (1919-1933),
retornando primero a la vida académica en el University College y posteriormente a
Cambridge, como profesor de genética. Después de su retiro, viajó a Australia en 1959.
Wright trabajó para la USDA de 1915 a 1925, viajó primero a la Universidad de Chicago.
Se retiró a la Universidad de Wisconsin en 1955, donde a diferencia de los otros dos,
vive 33 de sus más productivos años. Haldane y Fisher fueron por un tiempo colegas
en el University College. En 1933 Fisher propuso un vínculo, al menos en la educación
de estudiantes graduados (Box, 1978):

"Dado que los estudiantes preparados matemáticamente vienen a mí esperando


obtener alguna clase de doctorado trabajando en mi departamento, sin saber nada,
ninguna cosa, y no muy bien dispuestos a conocer alguna experimentación con material
vivo, ¿puedo hacer que ellos se dediquen a lecturas es su departamento sobre teoría
genética, así como así, un paso hacia la comprensión de las clases de razonamiento
usada por los experimentadores?"

No obstante, Fisher, Haldane y Wright fueron competidores más que colaboradores, y


no siempre fueron tolerantes con el trabajo de los otros. No hay duda que cada uno
ganaba con las publicaciones de los demás, desarrollando ideas adicionales en
respuesta a la crítica de los mismos. La esencia de sus contribuciones es muy diferente.
Haldane tuvo diversos intereses; sus aportes son variados y hay menos de una
perspectiva evolucionista para dar a su trabajo una síntesis global. Wright fue el más
práctico, desarrolló teoría como respuesta a datos particulares. Fisher fue el teórico y
tomó una visión más amplia de los datos, mientras la mayoría de su trabajo fue sugerido
por hechos del mundo real, su interés estuvo en la construcción de una estructura sin
la cual tales hechos no podrían ser tratados.

ALGUNAS ÁREAS DE GENÉTICA DE POBLACIONES

El trabajo de genética de Fisher, Wricht y Haldane encontraron como estudiantes,


fueron los trabajos mendelianos y de variación cuantitativa, no enteramente aceptados.
Hardy (1908) y Weinberg mostraron independientemente como la segregación
mendeliana mantiene la variación de una forma tal que la teoría de la herencia no podría.
Comenzó a comprenderse que los factores genéticos discretos se encontrarían bajo
variación cuantitativa. El arreglo lineal de genes sobre cromosomas fue a ser aceptado
por Sturtevant (1913) y las ideas de análisis de ligamento empezaron. Ideas acerca del
muestreo de poblaciones (Bateson, 1909; Weinberg, 1912) fueron desarrolladas como
estadísticas de particular importancia para el análisis genético.

En 1922, Fisher publicó tres importantes artículos: 1) presentó las bases para el futuro
desarrollo de la genética de poblaciones teórica; 2) presentó las bases para el desarrollo
de la Estadística Matemática; 3) demostró las ideas estadísticas teóricas del segundo,
aplicándolas a la mayor área estadística del análisis genético que yo la construcción de
mapas de ligamento genético-. Con esos tres documentos, Fisher establece su lugar
como fundador de la genética de poblaciones, la estadística matemática y la estadística
genética.

El trabajo de Fisher, Haldane y Wright fue adaptado a la biometría y a la genética, y


presentó las bases del análisis cuantitativo de la evolución mendeliana. A pesar de su
diferente perspectiva y sus teorías encontradas, sus contribuciones se mezclaron para
dar forma a este análisis. Para ver cuán amplio es este consenso de teoría evolucionista,
es instructivo revisar brevemente algunas de las áreas que ellos trataron; para evitar
que este documento sea solamente una bibliografía muchas referencias importantes
deben ser omitidas. Felsentein (1981) por ejemplo es una excelente fuente para la
identificación de documentos no citados aquí.

TEORÍA EVOLUCIONISTA: MUTACIÓN, SELECCIÓN Y FIJACIÓN DE ALELOS


RAROS.

Una vez la selección natural llegó a aceptarse como la fuerza conductora del cambio
evolucionista, el período propio para un extenso rango de estudios sobre la evolución
de los sistemas genéticos se dio. En primer lugar, la teoría evolucionista se interesó por
la evolución de los sistemas reproductivos y por la evolución de la dominancia; estos
conceptos fundamentales fueron tratados repetidamente por Fisher, Haldane y Wright.
Conjuntamente, presentaron una base perdurable para el más moderno trabajo en el
área. Los nombres frecuentemente asociados con la primera teoría de la evolución de
la recombinación son Muller (1932) y Haldane (1932), pero Fisher (1930) también hizo
su contribución a esta discusión. En la misma época, el desarrolló la idea de un
polimorfismo balanceado, un componente fundamental de la biología poblacional
teórica. Sin embargo, Fisher es el mayor foco en esta época en la evolución de la
dominancia, con su primer documento en 1922, y muchos otros entre 1928 y 1934. Si
bien este tópico ha tenido menos impacto en la investigación reciente, él mismo pensó
que su teoría de dominancia era de gran importancia y, por consiguiente, debía
mencionarse. Además, este tópico ilustra mejor lo positivo de las interacciones adversas
entre Fisher y Wright. El trabajo realizado por Fisher en sus artículos obtiene respuesta
de Wright, retomando la discusión con un intercambio final en 1934. Haldane también
participó en este debate. Éste intercambio de críticas no sólo incitó desarrollos de la
teoría, sino también exigió que cada adversario aclarara su pensamiento, un mayor
beneficio para posteriores investigaciones.

Mientras que la selección es la fuerza de la evolución, la mutación es la materia prima.


La segunda área principal de la teoría evolucionista y la base de la mayoría de la
biología poblacional teórica modelada y analizada, es también compartida por Fisher,
Haldane y Wright. Esta es el área de la teoría comprometida con cambios de frecuencia
de alelos bajo variación genética aleatoria y la última fijación o pérdida de alelos
mutantes, resultando diferencias entre las especies. Fisher (1922) fue el primero en
considerar tanto la ecuación para variación como la fijación de alelos mutantes; sin
embargo, fue Haldane (1926) quien desarrolló la teoría de sustitución por alelos
mutantes y más tarde la carga genética (1937); y fue Wright (1931) quien dio y desarrolló
la primera formulación correcta de la ecuación de difusión de variación genética
aleatoria. Kimura (1962-1964), el principal fomentador y adherente de la teoría neutral
de la evolución. En 1958 empleó la edición de Fisher de 1930 como una de sus
principales fuentes. Así, Fisher llega a tener un nombre frecuentemente asociado con
la ecuación de difusión para variación genética. Sin embargo, en verdad, este es el
único tópico en el cual Wright y Fisher estuvieron de acuerdo por un día; el "Modelo
Wright-Fisher" (algunas veces también llamado "Modelo Fisher-Wright") es una piedra
angular de la genética poblacional teórica.

Que Fisher fue el creador de "el teorema fundamental de la selección natural" es bien
conocido, si el debate alrededor de este teorema continúa (Ewens, 1989). De mayor
interés aquí son las diferentes perspectivas de selección- conducción propuestas por
Fisher, Haldane y por Wright-. Haldane, en virtud de su interés en mutación, investigó
muchos casos de equilibrio-mutación-selección en una serie de documentos de 1926 a
1932, y desarrolló ideas de carga mutacional (Haldane, 1937). Wright, con sus teorías
"paisajes adaptados" y "equilibrio cambiante" (1970), chocó con la visión de Fisher la
formulación de Wright-irónicamente para algunos, quienes opinan que su estructura
poblacional de entrecruzamiento fueron de gran interés-, asumió el apareamiento
aleatorio y la ausencia de interacción entre genes. La formulación de Fisher tomó cuenta
del apareamiento e interacción, sobre lo cual comentaba mordazmente: "yo nunca he
escrito acerca de (media poblacional ajustada)... la existencia de tal función potencia...
no es una propiedad general de poblaciones naturales, sino que se origina únicamente
en los casos restringidos y especiales de Wright... considera" (1958).

Este comentario es iluminación, por esto Fisher muestra su perspectiva global de


modelos y matemáticas que debían ser aplicables al mundo real. Tantos Fisher (1918)
como Wright (1917-1918) son bien conocidos (y para algunos quizás mejor conocidos)
por sus contribuciones pioneras al análisis de variación cuantitativa y heredabilidad.
Este no es el lugar para discutir su competencia por los derechos a las bases del análisis
de varianza. Los paralelos entre sus divisiones de la varianza total en sus documentos
separados de 1918, y las diferentes trayectorias que indujeron a Wright a la teoría de
coeficientes lineales (1912), y a Fisher a la tabla de análisis de varianza y la distribución
F (1925), han sido discutidas en otra parte. Lo que es de interés aquí es que de nuevo
Fisher no asumió el equilibrio de Hardy-Weinberg, e incluyó ordenadamente el
apareamiento en sus modelos. El no discutió esos aspectos de su modelo
detenidamente; más bien, consideró tales desviaciones de Hardy-Weinberg como otro
caso cierto, asumiendo que cualquier modelo sería incluido.

ANÁLISIS GENÉTICO HUMANO; DETERMINACIÓN Y ANÁLISIS DEL


LIGAMENTO.

Una tercera razón por la cual es difícil limitar una discusión sobre Fisher a sus
contribuciones estadísticas genéticas, este muy poco de genética de poblaciones o de
genética evolucionista es primariamente estadística, si bien tiene muchos elementos
estadísticos dentro. Sin embargo, si uno fuera a preguntar a expertos en genética cuáles
son las áreas de mayor demanda estadística, las respuestas deberían probablemente
ser unánimes-determinación y análisis del ligamento-. Gran parte de lo que está hecho
en ambas áreas fue trazado por el trabajo de Fisher de 1934 a 1936. En las áreas de
análisis de ligamento y epidemiología genética humana han divergido de aquellas de
evolución y teoría genética de poblaciones, pero los pioneros no ven razón para separar
sus ideas. Fisher y Haldane trabajaron inicialmente en el análisis de encadenamiento,
y sobre determinación presentaron la base muchas de las prácticas modernas en
epidemiología genética. Sus contribuciones no son fácilmente separables. Si bien Fisher
es mejor conocido por su trabajo sobre determinación, y Haldane y Smith (1947) por su
extensión de las bases del análisis de ligamento, ambos fueron activos en dichas áreas
durante los años 30.

La "determinación" ha venido a significar, en el contexto de la estadística genética, el


efecto del método de muestreo sobre la estimación de los parámetros de modelos
genéticos. Mientras Fisher es frecuentemente citado por haber colocado las bases para
corregir determinaciones, es interesante notar que este no es el principal tema en el
documento. Correcciones de determinaciones fueron consideradas anteriormente por
Weinberg (1912), y la necesidad de tales correcciones fue considerada por Fisher como
manifiesta:
Es común en estadísticas de la interpretación de un conjunto de datos requiere
conocimiento de cómo este fue obtenido. Igualmente es entendido que las conclusiones
extraídas de resultados experimentales deben apoyarse en un conocimiento detallado
del procedimiento experimental actualmente empleado. Sin embargo, en genética
humana, los métodos estadísticos son algunas veces puestos descaradamente, y sus
respectivas exigencias tomadas con entera negligencia de las condiciones de
determinación.

Así, lo que más interesó a Fisher fue colocar el problema de muestrear en genética
humana en un más amplio contexto estadístico el contexto de la inferencia máximo-
verosímil, eficiencia e información de Fisher. En efecto, Fisher se acreditó con Haldane,
mostrando que los estímulos de los parámetros considerados son estimadores máximo-
verosímiles. Su tema fundamental en este documento es sobre las eficiencias relativas
de procedimiento de muestreo alternativo; esto permanece como un tópico de la
investigación estadística genética corriente (Thompson, 1986).

El arreglo lineal de genes sobre cromosomas fue demostrado por Sturtevant (1913), por
medio de un análisis estadístico de cálculos recombinados en Drosophila. Fisher (1922)
mismo uso cálculos recombinados en cruzamientos diseñados para ilustrar sus
desarrollos estadísticos teóricos. Hasta los documentos de Fisher de 1934 a 1936,
revelan que él estaba poco interesado en la estimación máximo verosímil que ha sido
claramente desarrollado por Haldane (1934), cuyo documento incitó a Fisher al análisis.
Mejor dicho, Fisher está de nuevo interesado en información y eficiencia y en la pérdida
de eficiencia debida a la estimación de otros parámetros genéticos (1934). El uso de
máxima verosimilitud y registro LOG (log- cocientes de verosimilitud) es a un estándar
en el análisis de ligamento humano; Fisher (1935) presentó la infraestructura. Hay
muchos intereses modernos en el uso del análisis de ligamento para planteamiento
genético (Conneally, 1989); Fisher (1934) previno sobre el más grande beneficio del
planteamiento que debería resultar de estudios de ligamento. Activando investigaciones
con nuevos y más eficientes métodos para estudiar la potencia de un estudio de
encadenamiento (Ploughman, Boehnke, Lcinge y Matthyse, 1989).

LOS TIPOS DE SANGRE HUMANA (RH); UN ESTUDIO CON MÉTODO


CIENTÍFICO.

Los tipos de sangre humana proporcionaron (y para algunos tiende a proporcionar) una
maravillosa y abundante oportunidad de información para aquellos intereses en
variación mendeliana, y Fisher tuvo un perspicaz interés en desarrollos serológicos a
comienzos de los 30's. Box (1978); él no estuvo únicamente interesado en teoría y
formulaciones matemáticas. Fue en los 40's que Fisher (1947) hizo su mayor
contribución al esclarecimiento de los tipos de sangre Rhesus, lo cual de nuevo muestra
su visión de la inferencia científica (deducciones teóricas de datos del mundo real), la
construcción de una estructura aplicable a las situaciones del mundo real e inferencia
dentro del contexto de la estructura para una más amplia gama de problemas
evolucionistas.

Fisher siguió considerando la disponibilidad de datos sobre frecuencias de segregación


en familias un clásico análisis genético estadístico; sobre la base de la disponibilidad de
datos, únicamente seis de ocho proporcionados por este sistema podrían ser validados,
pero al instante después de eso un séptimo fue encontrado, y más tarde el octavo. Más
importante aún, uno de los anticuerpos perdidos (anti-e) fue detectado; anti-d parecen
no existir. Aquí realmente, está una "estructura aplicable al mundo real", lo cual hizo que
se diera cuenta de la aparente caótica reacción Rhesus. Sin embargo, Fisher no se
limitó a la construcción de la estructura; él consideró también las cuestiones
evolucionistas reunidas por este sistema de tres 'loci' muy estrechamente encadenados,
y usó las frecuencias poblacionales de los ocho alelos presumiblemente originadores
de cada uno de los otros mediante muy extraordinarios eventos de recombinaciones
para inferir el orden de los tres 'loci'.

Así, en este ejemplo, nosotros tenemos a Fisher el matemático deductivo, Fisher el


estadístico, y Fisher el teórico evolucionista. Este es la síntesis de esas tres
perspectivas que caracterizan la singular contribución de Fisher. El mismo sintió que
este trabajo era un primer ejemplo de método científico (1947).

EL ADVENIMIENTO DE LOS COMPUTADORES.

Una pregunta legítima es por qué Fisher y Haldane, habiendo reconocido la importancia
del ligamento humano y del análisis de segregación, y presentando las bases de la
teoría y la metodología, no continuaron con el tema más adelante. Hay quizás dos
razones: una es que los datos para detallar mapas de encadenamiento genético
humano no estuvieran disponibles. Únicamente con la llegada de señales (marcas) muy
polimórficas de DNA ha sido posible mapear a gran escala encadenamiento,
segregación y análisis de eslabonamiento. El advenimiento de los computadores más
rápidos y más accesibles ha cambiado nuestra aproximación hacia la ciencia. Un trabajo
de Fisher fue la derivación algebraica meticulosa y la extinción producida por los
cálculos manuales a tablas numéricas. Habría él dado la bienvenida a los computadores
y la potencia enormemente incrementada para análisis de ligamento y el análisis de
segregación que nosotros tenemos como resultado.

En efecto, él dio la bienvenida a los computadores. Haldane (1948) escribió un


documento sobre Clinas-el patrón geográfico de frecuencias esperadas de alelos bajo
selección y migración, cuando diferentes alelos son provechosos en diferentes
regiones-. Fisher (1950), en un contexto similar tuvo una ecuación diferencial distinta
para resolver, que podría no producir una solución analíticamente. La solución numérica
proporcionada por el computador Cambridge EDSAC-T podría decirse, por el primer uso
publicado de un computador digital en biología matemática (Wiikes, 1975).
CROMOSOMAS Y DATOS DNA.

En los últimos años-puesto que Fisher muere en julio de 1962-, los datos han cambiado
fuera de todo reconocimiento. Primero, los tipos de sangre fueron aumentando mediante
polimorfismos de encimas; luego, por polimorfismos de DNA, (Botstein et al, 1980); más
tarde, por impresión digital de multilocus de DNA (Jeffreys, Willson y Thein, 1985), y
ahora por polimorfismos de un único locus VNTR (Nakamura et al, 1987). La información
secuencial de DNA está disponible actualmente en (mapa genético).
En principio, los nuevos polimorfismos son muy coherentes; del mismo modo los tipos
de sangre proporcionan señales mendelianas cuantitativas pueden ser usadas para
asignar diferenciación poblacional y variación individual. La diferencia se encuentra en
el hecho que la densidad de la información sobre los genomas está ordenada en
magnitud creciente. En lugar de esforzarse para encadenar unos pocos pares de
sistemas de tipos de sangre, y quizás asignárselos a uno de los 22 pares de autosomas,
los expertos en genética pueden ahora ensayar a ordenar 50 señales de DNA, todas
condicionadas por estar situadas en una pequeña región cromosomal. Análisis basados
en modelos oligogénicos no son aplicables a tales datos; una nueva estructura en la
cual el cromosoma es tratado como una continuación de información genética es
necesario. En efecto, semejante estructura fue proporcionada por Fisher (1949) en el
contexto de sus estudios de intracruzamiento.

En su serie de cinco documentos pioneros en 1921, Wright (1921) coloca la base original
de esta área; las futuras generaciones de contribuciones provinieron de Cotterman
(1940) y Malecot (1948), más que de Fisher o de Haldane. El trabajo de Wright sobre
estructura poblacional condujo también a su teoría de aislamiento por distancia (1943),
con la cual a pesar del trabajo de Fisher sobre la ecuación de difusión (1922) y sobre
clinas (1950), hizo Wright la mayor contribución a esta área. Sin embargo, el trabajo de
Wright el entrecruzamiento y estructura poblacional fue en el contexto de un único (o
algunas veces múltiple, pero segregado independientemente) loci. Haldane tuvo un
interés en entrecruzamiento en el contexto de letales recesivos, y también, a través de
esto, en entrecruzamiento de loci encadenado (Cf. Haldane, 1949).

La principal contribución de Fisher en esta área es un pequeño manual sobre la teoría


de entrecruzamiento (1949). La mayor parte del texto consiste en derivaciones
algebraica de la proporción de pérdida de variación genética en un único locus, bajo
sistemas alternativos de apareamiento, en meticuloso detalle. Sin embargo, hay una
sección (poco conocida) del texto que puede llegar a ser apreciada como una de las
más grandes contribuciones de Fisher a la estadística genética, pues proporciona la
estructura necesaria para el análisis de una cadena de cromosomas continua. Antes de
considerar la descendencia y entrecruzamiento de genes en puntos (loci) sobre un
cromosoma, Fisher (1949) desarrolló la idea de puntos de empalme sobre los
cromosomas, en los cuales las recombinaciones han ocurrido proporcionando un punto
de reunión entre segmentos de cromosoma de diferente origen ancestral. Considerando
el destino de esos empalmes, los procesos de su creación, pérdida o fijación, es posible
considerar entrecruzamiento y pérdida de variación genética no sólo en un simple loci,
sino sobre la longitud del cromosoma. Fisher desarrolló su estructura teórica,
reconociendo que los cromosomas eran hechos del mundo real, y que la genética de
poblaciones requería una estructura para describir la herencia y descendencia de
segmentos de cromosoma. Interesado, el también simuló el proceso (a mano), indicativo
tanto de un modelo bien definido como de su interés en los resultados de corto plazo
que él no podría derivar analíticamente. Esta teoría y resultado adelantarían su tiempo,
y con unas pocas excepciones (Cf. Robertson, 1970; Franklin, 1977; Donelly, 1983) han
sido ignorados.

Fisher parece haber sido asignado a su historia. En septiembre de 1961, en su visita


final a Stanford en su camino de regreso a Australia, él sugirió la teoría de empalmes
como el tópico para su seminario (Cf. W.F. Bodmer; Fisher Memorial Lecture,
Cambridge 1990). El fue persuadido de hablar sobre otro tópico; los empalmes no fueron
entonces considerados como un tópico prometedor para atraer a la audiencia. Fisher
desarrolló su teoría de empalmes como una teoría dirigida a una "situación en el mundo
real"-el hecho de la continuidad del material genético-, él seguramente habría dado la
bienvenida a los modernos datos genéticos que hacen esta teoría aplicable
estadísticamente.

Con el transcurso de los años, el aspecto del trabajo de Fisher que ha tenido mayor
impacto en la investigación corriente en estadística genética ha cambiado
continuamente durante los años 20's, la teoría evolucionista básica fue silenciosamente
desarrollada. Fisher (1930) describió la teoría y, en conjunto, la escena para desarrollos
futuros. Durante los años 30's, las ideas de análisis de encadenamiento fueron iniciadas
y ha permanecido en uso desde entonces. Durante los 40's, los tipos de sangre llegan
a ser un área importante de investigación. Los 50's vieron renovada la actividad en el
área genética cuantitativa, particularmente en el aria de crianza de plantas y animales;
en los 60's con la enorme expansión de la biología poblacional matemática. El trabajo
de Fisher sobre teoría evolucionista recibió renovada atención.
En los 70's con el crecimiento del trabajo en análisis epidemiológico genético humano
de complejas características, Fisher contribuyó a que la teoría de determinación llegara
a ser bien conocida. En los 80's tuvo lugar la década del análisis. Las bases estadísticas
fueron presentadas por Fisher y Haldane entre 1934 y 1936. En los 90's polimorfismos
del DNA y secuencias de DNA llegaron a ser los datos de selección para dirigir
cuestiones de epidemiología genética y biología evolucionista: a través de su teoría de
empalmes, la más grande contribución de Fisher a estadística genética y aún puede ser
usada Samuel Fisher nació en Inglaterra en 1890 y murió en Adelaida, Australia en
1962; tuvo como interés fundamental unificar darwinismo y mendelismo, pero en el
contexto de la biometría y con marcado interés en la eugenesia, cuestión que lo
diferencia de Wright.
Provine, uno de los estudiosos de este periodo, escribe que probablemente desde
1912 El origen de las especies de Darwin y los artículos de Karl Pearson convencieron
a Fisher de que la selección natural es la fuerza primaria del cambio evolutivo, y de que
opera sobre variación continua. Pearson defendía que la variación continua debería de
ser heredable, pues pensó que si no fuera así la cantidad de variación disminuiría.
Fisher, a diferencia de Pearson, aceptó la herencia mendeliana y la continuidad del
germoplasma. Por lo tanto, reconoció –como los genetistas mendelianos– que los
factores individuales no se mezclan vía el cruzamiento y que, por lo tanto, la variabilidad
se conserva. Uno de los problemas fundamentales de Darwin, el de la pérdida de
variabilidad por el cruzamiento y la supuesta dilución de caracteres que llevaría a la
homogenización de las poblaciones, queda explícitamente resuelto con los cálculos
matemáticos de Fisher.

Otro problema que se planteó Fisher fue el de demostrar la máxima importancia de la


herencia sobre la acción del ambiente. En la misma corriente de Galton y Pearson, trató
de probar que todo factor ambiental tenía mucho menor efecto que los factores
hereditarios. Además de diferenciar entre los efectos del ambiente y los efectos de la
herencia, distinguió los componentes aditivos de los no aditivos (efectos de dominancia,
epistasis, pleiotropía, etc.). Desde su punto de vista, los resultados de la selección
natural dependerán más de los alelos presentes que de los efectos hereditarios no
aditivos y de los efectos ambientales.

Uno de sus artículos más importantes fue publicado en 1922: “On the dominance ratio”.
En él analiza la interacción de los diferentes mecanismos de evolución, como selección,
mutación, extinción al azar de genes y otros procesos relacionados, como la dominancia
y apareamiento no al azar.

Fisher, uno de los más destacados estadísticos de este siglo, demostró


matemáticamente que si la selección favorece a uno de los homocigotos (en un locus
con sólo dos alelos) el otro alelo será eliminado. En cambio, si la selección favorece el
heterocigoto, hay condiciones para un equilibrio estable, y ambos alelos permanecerán
en el acervo. Este caso puede explicar, escribe Fisher, el vigor heterocigótico y en
alguna medida los efectos deletéreos que a veces causa el entrecruzamiento. En el
caso de la dominancia completa, la selección es ineficaz en remover al recesivo
deletéreo, ya que este último queda enmascarado en la condición heterocigótica.

Fisher no consideró que los cambios por azar en la composición genérica de las
poblaciones (deriva génica) tuvieran gran importancia en la evolución; sin embargo
no negó que esto puede ocurrir en poblaciones pequeñas. Por su idea de la selección
natural como el mecanismo más importante consideró que, siempre, la evolución era
orientada hacia el aumento en la adaptación; por la misma razón, pensó que las
condiciones ideales para que haya evolución se dan en poblaciones grandes. Una
mutación tendrá mayor posibilidad de fijarse a bajas frecuencias en una población
grande en vez de una pequeña, simplemente porque la mutación sobrevivirá con mayor
frecuencia en una población grande. “Entonces una especie numerosa con la misma
frecuencia de mutación, mantendrá una variabilidad más alta que una especie menos
numerosa” (Fisher, 1922). Una consecuencia de este punto de vista es que una tasa
pequeña de mutación puede balancear los efectos adversos de la selección en una
población grande más fácilmente que en una población pequeña. Esta idea es
fundamental en la visión de evolución de Fisher.

Fisher comparó su teoría de la evolución con las leyes generales del comportamiento
de los gases. De hecho, su teorema fundamental recuerda la estructura de la segunda
Ley de la termodinámica. (Depew y Weber, 1995, hacen un amplio análisis de la relación
del pensamiento de Fisher con los de Newton, Maxwell y Boltzmann). En este sentido,
pensaba que se debe considerar a las poblaciones naturales no tanto como conjuntos
de seres vivos sino como conjuntos de tasas genéticas. La visión determinística de la
actividad adaptativa de la selección natural impidió a Fisher entender la relatividad de
la adecuación (fitness) respecto a los diferentes ambientes en que puede habitar un
mismo genotipo y los casos en los que la selección natural puede favorecer la aparición
de caracteres no adaptativos; sin embargo,

Al hacer la selección natural medible y comprobable y hacerla ver como una explicación
causo-mecánica, mucho del estatus metafísico y especulativo del fenómeno fue
removido […] A mediados de los años 30 están juntos todos los componentes que hacen
al evolucionismo una ciencia tan mecanicista y materialista como es posible,
fundamentados en el principio de equilibrio de Hardy-Weinberg, y siguiendo la
‘observación y el experimento’ pero en una forma que permitirá la independencia de las
ciencias biológicas (Smocovitis, 1996).

En su concepción evolucionista, Fisher destacó de manera fundamental dos cuestiones:


el tamaño grande de las poblaciones y la pequeñez de las variaciones. En 1918 (“The
correlation between relatives”) definió la cantidad a2 como la contribución que un gen
singular hace a la varianza total. Demostró matemáticamente que existe correlación
directa entre la cantidad de variación genética en una población y la tasa de cambio
evolutivo por selección natural. Esta demostración está expuesta en su teorema
fundamental de la selección natural (The Genetical Theory of Natural Selection, 1930):
“La tasa de incremento en adecuación de cualquier organismo en cualquier momento
es igual a su varianza genética en adecuación de ese momento”.
Es decir, la selección natural es más efectiva en tanto haya menor cantidad de variación
positiva en una población. En este libro Fisher sintetiza sus ideas sobre la selección
natural; muestra matemáticamente que la herencia de tipo mendeliano favorece la
permanencia de variación en una población aun con tasas bajas de mutación. Su
definición de adecuación o éxito reproductivo (fitness), en el ámbito genético se refiere
a que un alelo es más adecuado que otro cuando gana en representación proporcional
respecto al otro u otros alelos en una población; en tanto haya diferencia en el grado de
adecuación entre alelos en una población; en tanto haya diferencia en el grado de
adecuación entre alelos habrá oportunidad de acción para la selección natural.

La variación en adecuación, esto es, el éxito reproductivo, es en sí mismo variable.


Muestra lo que técnicamente es llamado varianza, es decir, grados de variabilidad o
dispersión. Si bien es intuitivamente claro que la media entre 9 y 1 y entre 6 y 4 es 5,
hay más variación (mayor varianza) entre 1 y 9 que entre 4 y 6. Fisher propuso medir la
varianza genética en adecuación usando esta medida. Cuando él dice que está viendo
la “varianza aditiva en fitness”, quiere decir que está desechando la parte de la varianza
total que se debe a factores no genéticos, y realmente considerando sólo la porción de
varianza genética a la que contribuye cada gen separadamente y cuyos efectos son,
como los esfuerzos de remeros en una competencia de botes, acumulativos.
Sumar la varianza genética aditiva de la selección natural trabajando sobre todos los
loci, dividir para obtener la contribución promedio de cada gen, y distribuir esto en la
población reproductiva completa. El resultado será una medida de la tasa de selección
natural para esa población. Fisher mostró que la selección natural es más eficaz en un
arreglo de variaciones mendelianas pequeñas, continuas. Entonces, la madura
insistencia de Darwin en variación continua es consistente con la herencia particulada
a través de la habilitación del concepto probabilístico de selección natural para unificar
ambas ideas (Depew y Weber, 1995, p. 267).

Se han realizado numerosos experimentos para probar el teorema de Fisher, es decir,


para verificar que el aumento de la variabilidad genética propicia el cambio adaptativo.
Al comparar poblaciones de linaje único y poblaciones con mezcla de linajes colocadas
en ambientes experimentales idénticos se han encontrado diferencias notables, por
ejemplo, la tasa de crecimiento de las poblaciones mezcladas es mayor, lo que muestra
que la variabilidad favorece la mejor explotación del ambiente, es decir en las
poblaciones mezcladas se presenta mayor adecuación (fitness), lo cual evidencia mejor
adaptación.

Como acertadamente señalan Depew y Weber (1995, p. 268), Fisher logró un notable
avance en la intención de Darwin de hacer de la teoría de la evolución una
“convergencia de inducciones” a la manera de Whewell, y entonces unificar y explicar
gran número de fenómenos biológicos. Si bien a Darwin lo limitaron la ausencia de una
teoría idónea de la herencia y la matematización de la acción de la selección natural
sobre la herencia Fisher consiguió explicar en términos probabilísticos por qué la
varianza será mantenida en una población polimórfica y por qué, en consecuencia, los
heterocigotos tienen una adecuación mayor que los homocigotos; por qué es tan difícil
eliminar por completo genes recesivos en una población natural, aun por cruzas y
selección intensa en el laboratorio; cómo la dominancia pudo haber evolucionado paso
a paso como todos los demás caracteres, a partir de heterocigosis; por qué los sexos
tienen una proporción de 1:1; cómo ha surgido el mimetismo, y otros aspectos
evolutivos. Fisher mostró matemáticamente que la competencia no es normalmente una
cuestión de muertes diferenciales, sino de fecundidad comparativa, sustentada en la
eficiencia diferencial en el uso y la repartición de los recursos. Fisher nació en Finchley,
Londres, el 17 de febrero de 1890. Fue hijo de George Fisher, subastador y miembro
de una familia conformada mayormente por hombres de negocios y de Katie Heath,
mujer dedicada al hogar e hija del notario londinense Thomas Heath. A muy temprana
edad, Fisher mostró una gran inteligencia y precocidad por las matemáticas. Antes de
los seis años su madre le leyó un libro de astronomía que lo motivó a continuar con este
estudio, por lo que a la edad de siete u ocho años atendió las clases de Sir Robert Ball.
Sus problemas de la vista consistentes en una extrema miopía, le impedían trabajar con
luz eléctrica, por lo que, bajo la tutoría de G. H. Mayo, desarrolló una gran habilidad para
resolver problemas matemáticos sin el uso de lápiz y papel, tan sólo efectuando cálculos
mentales. En estas tutorías trabajó principalmente trigonometría esférica y con esto
logró un gran sentido geométrico que fue de gran influencia en sus trabajos posteriores.
Esta facilidad era en ocasiones un inconveniente pues algunos matemáticos de su
tiempo, carentes de esta habilidad, no entendían sus razonamientos, que para él
resultaban obvios. En 1904 sufre la pérdida de su madre, quien muere repentinamente
de peritonitis y para 1906, su padre realiza malos negocios que impiden lo siga
ayudando económicamente, por lo que debe buscar alguna manera de sostenimiento.
Generalmente contó con cierto tipo de becas para sus estudios y en 1909 recibió una
más para estudiar en la Universidad de Cambridge, donde, en 1912 se graduó como
Wrangler1. Es ahí donde empezó a interesarse en la teoría de la evolución y la selección
natural de Darwin y en genética, pues, aunque su educación fue matemática, desde
temprana edad tuvo interés en la biología. Después de graduarse estuvo en Cambridge
un tiempo más, estudiando mecánica estadística bajo la asesoría de James Jeans.
También estudió la teoría de errores en observaciones astronómicas bajo F. J. M.
Stratton y fue esto último lo que lo condujo a investigar problemas estadísticos. En abril
de 1912 publicó su primer artículo, en el cual desarrolló lo que luego sería conocido
como el método de máxima verosimilitud. Ronald Fisher tuvo por mucho tiempo una
relación amistosa con William S. Gosset, hombre generoso, amigable y con una gran
variedad de intereses. Gosset publicaba bajo el seudónimo de Student y en el verano
de 1912 mantuvo correspondencia con Fisher en relación al denominador (n-1) de la
fórmula de la varianza, ya que, derivando el estimador de máxima verosimilitud para la
varianza de una muestra proveniente de una población normal, Fisher había llegado al
denominador n en lugar de (n-1) obtenido por Gosset. La facilidad matemática que
Fisher tenía, le permitió

APUNTES DE HISTORIA DE LAS MATEMÁTICAS VOL. 1, NO. 3, SEPTIEMBRE 2002


33
Reformular el problema en términos de configurar la muestra en un espacio n-
dimensional y mostró que usar la media muestral en lugar de la media poblacional, era
equivalente a reducir en uno la dimensionalidad del espacio muestral. De esta manera
llegó a un término que después llamó grados de libertad. Esta formulación geométrica
del problema lo llevó a derivar la distribución t de Student y, en septiembre de ese año,
la envía a W. Gosset, quien ya la había derivado empíricamente, por lo cual se le conoce
con su seudónimo. Gosset inmediatamente envió esta demostración a Pearson,
sugiriéndole su publicación, aunque aclaraba “No pude entender todo este material. No
me siento a gusto trabajando en más de tres dimensiones, pero puedo comprenderlo
de otra manera. Me parece una prueba matemática que puede ser muy atractiva para
muchas personas”. La prueba no fue publicada y la correspondencia cesó por un tiempo.
El trabajo de Fisher era admirado por muchos, entre ellos Gosset, quien pudo mantener
a un mismo tiempo una amistad con Ronald Fisher y Karl Pearson. Todos sabían que
Fisher tenía el defecto de no admitir que podía cometer errores y llegar a reconocer
alguno le tomaba bastante tiempo. En 1913 Fisher aceptó un trabajo como estadístico
en la Compañía Mercantil y de Inversiones de Londres y de 1915 a 1919 trabajó como
profesor de matemáticas y física en varias escuelas públicas, como una manera de
servir a la patria, ya que fue rechazado del ejército por sus problemas visuales. En 1917
se casó con Ruth Eileen, hija del Dr. Henry Grattan Guinness, con la cual tuvo seis hijas
y dos hijos. Durante todo este período estuvo desarrollando sus ideas en estadística y
genética. Fisher reanudó su relación por correo con William Gosset cuando se dedicó a
derivar la distribución muestral del coeficiente de correlación, retomando un artículo que
este último publicó cuando pasó un año trabajando con Karl Pearson, en el University
College, en 1907. El trabajo de Fisher llegó a Karl Pearson, quien en 1915 le publicó un
artículo sobre la distribución muestral del coeficiente de correlación en la revista
Biometrika, que estaba bajo su dirección. Pearson era muy reconocido por sus
investigaciones en estadística y en genética y, por cuenta propia, realizó un estudio
cooperativo en sus laboratorios, con el que publicó en 1917 lo que consideraba
correcciones al artículo de Fisher, sin notificárselo previamente.

La razón es que Pearson no había entendido el método de máxima verosimilitud que


Fisher utilizaba y lo llamó inferencia inversa, algo que este último había evitado
deliberadamente. En ese tiempo Fisher era un desconocido y se sintió agredido por los
comentarios de Pearson, quien ignoró la propuesta de Fisher de demostrar la
significancia de las correlaciones haciendo una transformación al coeficiente de
correlación r, dada por z ln 1 r 1 r 2 1 , y con la cual se logra que distribuciones altamente
sesgadas y con varianzas desiguales se transformen en distribuciones
aproximadamente normales con varianzas constantes. Lo anterior creó una
confrontación, pues Pearson ignoró nuevas explicaciones de Fisher e inclusive algunas
de las teorías nuevas que éste proponía. Por su parte, Fisher encontró algunos errores
en el cálculo de los grados de libertad de ciertas tablas que Pearson había

APUNTES DE HISTORIA DE LAS MATEMÁTICAS VOL. 1, NO. 3, SEPTIEMBRE 2002


34
publicado, pero dada la fama de este último, no fueron tomados en cuenta por la Royal
Society, la que rechazó, en 1917, un artículo sobre la correlación entre parientes bajo
el supuesto de herencia Mendeliana. Como sabía que a Pearson no le agradaban sus
demostraciones, Fisher intentó nuevas pruebas, esperando que el nuevo método que
empleaba agradara a Pearson, pero también esto fue ineficaz. Debido a estas
confrontaciones, en 1919 Fisher rechazó la invitación de Pearson de presentar solicitud
para una posición en su departamento de estadística. Es de reconocer que Fisher en
un principio trató con mucho respeto el trabajo de Pearson. Se afirma que si este último
hubiera tenido una mente más abierta, habría percibido en Fisher al hombre que podía
resolver muchos de los problemas que en ese momento se tenían. Sin embargo, hizo
lo opuesto, se dedicó a poner dificultades en su camino y demostrar que Fisher estaba
equivocado, llegando inclusive a rechazarle publicaciones en Biometrika. En septiembre
de 1919 Fisher empezó a trabajar como estadístico en la Estación Experimental de
Rothamsted, donde se involucró en la experimentación agrícola, que en ese lugar se
venía efectuando desde 1843. Al principio trabajó con datos históricos, de experimentos
que se habían llevado a cabo durante largos períodos de tiempo, pero después se
involucró en los datos y diseño de nuevos experimentos que se realizaban en ese
momento. Rothamsted fue una buena elección pues existía una atmósfera libre que le
permitía el contacto con investigadores en biología y otras áreas. Fue en este tiempo
cuando estableció las bases teóricas de la estadística matemática y también desarrolló
las modernas técnicas de diseño y análisis de experimentos, pues estaba involucrado
con la variedad de problemas que enfrentaban los investigadores que ahí trabajaban y
siempre trató de mejorar los experimentos que ahí se conducían. Fue así como
emergieron los principios de aleatorización, replicas, bloques aleatorizados, bloqueo,
confusión, cuadrados latinos, arreglos factoriales, etcétera. Fisher y Gosset se
conocieron personalmente hasta el 15 de septiembre de 1922, con el próposito de
discutir sobre las tablas de la distribución t. Gosset había venido usando estas tablas
desde hacía 14 años y, al igual que con sus trabajos sobre el coeficiente de correlación,
estas investigaciones se habían derivado de problemas que había tenido que resolver
en su trabajo. Gosset nunca imaginó la importancia de estas tablas hasta que habló con
Fisher, quien elogió mucho su trabajo. Por otra parte, entre 1922 y 1925, Fisher
desarrolló los fundamentos de la teoría de estimación. Estaba principalmente interesado
con el manejo de muestras pequeñas ya que disponía de observaciones de
experimentos científicos con estas características y fue muy claro en hacer una
distinción entre estadísticos muestrales y valores poblacionales o parámetros. A Fisher
se le deben los conceptos de eficiencia, suficiencia, información y consistencia de un
estimador. Cuando retoma su trabajo sobre el coeficiente de correlación, deriva
distribuciones muestrales de otros estadísticos de uso común, entre ellas la distribución
F. Para 1925, estando en Rothamsted, publica su libro Statistical Methods for Research
Workers. Este libro llegó a ser la biblia de los investigadores en todo el mundo y contenía

APUNTES DE HISTORIA DE LAS MATEMÁTICAS VOL. 1, NO. 3, SEPTIEMBRE 2002


35

básicamente todas las nuevas técnicas desarrolladas, que fueron de gran utilidad para
los biólogos. Fisher tenía un principio de justicia muy fuerte y escribió una nota histórica
en este libro elogiando a Gosset y donde dice: “El trabajo de Student no ha sido
totalmente apreciado, de hecho ha sido ignorado en las revistas donde ha aparecido, y
uno de los principales propósitos de la primera edición de este libro es que se reconozca
la importancia de estas investigaciones y su consecuente trabajo matemático”. Para
entonces el trabajo de Fisher era ya reconocido por un amplio círculo de investigadores
y se incrementó considerablemente el número de visitantes provenientes de otros
institutos que deseaban trabajar con él. En 1929 fue electo miembro de la Royal Society
de Londres. Dado que Fisher siempre se había interesado en genética y evolución, en
esta estación experimental inicia una serie de experimentos de crías de ratones,
caracoles y aves, y con estos últimos confirma su teoría de dominancia en la evolución.
En Rothamsted nunca se habían efectuado este tipo de experimentos, pero se le
proporcionaron tierras para la cría de ciertos animales, como aves y caracoles. Los
ratones tuvo que mantenerlos en su casa con la ayuda de su esposa e hijos. Así, para
1930 publicó Genetical Theory of Natural Selection en la que logra una reconciliación
entre las ideas de Darwin sobre selección natural y la teoría de Mendel, pues relaciona
la teoría de la evolución de Darwin con los principios genéticos de Mendel. Su esposa
le ayudó en la escritura de este libro y el contenido del mismo era un interesante tema
de discusión para su familia. Fisher siempre trató de involucrar a sus hijos en su trabajo
y algunos de ellos le ayudaban con la cría de animales. Durante el período de 1931 a
1936 realizó estancias de verano en la Universidad Estatal de Iowa. Su trabajo en
genética fue reconocido de manera tal que en 1933 se le ofreció la posición de Galton
Professor en el University College of London, esto es, profesor en el Laboratorio Galton
para la cátedra de eugenesia, en sucesión de Karl Pearson, quien fundó este laboratorio
en 1904, como un centro de investigación en genética humana. Fisher aceptó esta
posición pero no tomó el control de todo el departamento pues éste fue dividido en dos.
Jerzy Neyman (quien no congeniaba con Fisher) y E. S. Pearson, hijo de Karl Pearson,
tomaron a su cargo el departamento de estadística, cuyo nombre fue cambiado a
Departamento de Estadística Aplicada, y Fisher quedó a cargo del Laboratorio Galton.
En un principio, J. Neyman fue invitado para una posición temporal en el departamento,
pero al año su posición se volvió permanente y la mantuvo hasta 1938.

Ambos departamentos compartían el mismo edificio, pero se encontraban en diferentes


niveles, lo cual provocaba en ocasiones situaciones tensas para los visitantes que
debían contactar ambos departamentos. El Laboratorio Galton ofrecía oportunidades
para la cría experimental de animales que no había sido posible realizar en Rothamsted.
Por lo tanto, Fisher pudo mover al laboratorio toda la colonia de ratones que mantenía
en su casa y agregar mucha más variedad de animales. Por otra parte, retomó The
annals of eugenics de Karl Pearson, revista que había sido originalmente fundada para
la publicación de artículos en eugenesia y genética humana; bajo la dirección de Fisher
llegó a ser una revista de gran importancia en estadística.

APUNTES DE HISTORIA DE LAS MATEMÁTICAS VOL. 1, NO. 3, SEPTIEMBRE 2002


36
En 1935 publicó su libro The Design of Experiments, el cual fue el primer libro
explícitamente dedicado a esta materia. A pesar de las controversias que este libro
motivó, las nuevas ideas en diseño y análisis experimental pronto fueron aceptadas por
la mayoría de los investigadores y los métodos han sido adoptados casi universalmente,
no solamente en agricultura, sino en todas las áreas que involucran el manejo de
material altamente variable. Gracias a un buen diseño experimental se han logrado
muchos avances en la producción agrícola. Al comienzo de la segunda guerra mundial
se decidió evacuar el University College, y aunque por un tiempo Fisher se resistió a
esta decisión, finalmente tuvo que abandonar el laboratorio y volver a Rothamsted. En
1943 aceptó la posición Arthur Balfour de Genética en Cambridge, en sucesión de R.
C. Punnett. Cuando regresó a Cambridge fue reelecto miembro de su antiguo colegio
Gonville and Caiu, y en sus últimos años llegó a ser una leyenda para los estudiantes
de este colegio. Durante este tiempo escribe tres libros más: The Theory of Inbreeding
en 1949, Contributions to Mathematical Statistics en 1950 y Statistical Methods and
Scientific Inference en 1956. Aunque después de la guerra los recursos para proyectos
de investigación fueron en general muy limitados, él continuó trabajando en estadística
y sus usos prácticos en la investigación. Al dejar Cambridge visitó a E. A. Cornish, Jefe
de la División de Estadística Matemática en Adelaide, Australia, quien lo invitó a trabajar
ahí. El clima y la atmósfera intelectual que Fisher encontró en Adelaide lo persuadieron
de quedarse y a pesar de que realizó visitas a otras partes del mundo, permaneció en
Adelaide hasta su muerte. Hasta una semana antes de su deceso se le vio lleno de vigor
intelectual y completamente involucrado en la investigación estadística. Es difícil
describir toda la producción de Ronald Aylmer Fisher pues por cerca de medio siglo
publicó por lo menos un artículo cada dos meses y muchos de ellos marcaron nuevas
líneas de investigación. Por lo tanto, no es sorprendente que haya sido distinguido con
varios premios y honores durante su vida, inclusive ser nombrado Caballero en 1952.
Aunque Fisher se vio involucrado en una larga batalla con otros estadísticos por sus
investigaciones acerca de estimación y prueba de hipótesis, gracias a todas sus
contribuciones es considerado uno de los fundadores de la estadística moderna.

SAMUEL Y EL DISEÑO Y ANÁLISIS DE EXPERIMENTOS:


Es interesante conocer como Ronald Fisher llegó a establecer varios conceptos y tipos
de diseños para el análisis de experimentos. Cuando llegó a la estación Rothamsted en
1919, como ya se mencionó, había gran confusión sobre los errores a que estaban
sujetos los resultados experimentales. El conocimiento del error experimental es no sólo
necesario para tener una idea de la exactitud de los resultados sino que también provee
las bases para la validez de las pruebas de significancia. Fisher mostró a los
investigadores de la estación experimental que el utilizar réplicas en los experimentos
era una manera de estimar este error.

APUNTES DE HISTORIA DE LAS MATEMÁTICAS VOL. 1, NO. 3, SEPTIEMBRE 2002


37 Por otra parte observó que el análisis de varianza era una poderosa técnica que
permitía separar las fuentes de variación de los ensayos efectuados en campos
agrícolas. En 1923 publicó una primera aplicación, donde estudió el efecto de tres
tratamientos en doce variedades de papas y para ello utilizó tres réplicas. El
experimento fue básicamente del tipo de parcelas divididas y aunque en un principio
Fisher cometió el error de utilizar una sola estimación del error para todas las
comparaciones entre tratamientos, para 1925 comprendió mejor las fuentes de error
experimental y notó que en este tipo de diseño era necesario separar este error en dos
fuentes: el proveniente de la parcela completa y el correspondiente a la subparcela. En
su libro Statistical Methods for Research Workers estableció por vez primera los
principios de aleatorización y enfatizó que las pruebas de significancia sólo son válidas
cuando se aleatorizan los tratamientos en las unidades experimentales. Desde la
primera edición de este libro se incluye una tabla de la distribución normal para p=0.05
y pruebas de significancia para el análisis de varianza en el caso de tener pocos grados
de libertad en uno o varios componentes del análisis.

En ese tiempo no era bien comprendida la ventaja de utilizar bloques hasta que,
mediante el análisis de varianza, Fisher logró aislar la varianza suscrita a las diferencias
en los bloques y estudió cómo ésta podría eliminarse del análisis. Demostró también
que en los diseños de cuadrados latinos la varianza podría ser separada en dos
direcciones, con el inconveniente de que en estos diseños el número de repeticiones
debía ser igual al número de tratamientos comparados. También por este tiempo Fisher
clarificó sus ideas sobre el análisis de resultados en un diseño factorial, esto es, diseños
donde se incluyen todas las combinaciones de los niveles de un grupo de tratamientos
o factores en un mismo experimento. Los investigadores de Rothamsted efectuaban
experimentos factoriales, pero al analizar los resultados, creían que era mejor investigar
un factor a la vez. Fisher mostró cómo evaluar correctamente los resultados de estos
experimentos considerando las posibles interacciones que pudiera haber entre factores.
Poco después, al observar que en los experimentos factoriales el número de
combinaciones de tratamientos crecía rápidamente conforme aumentaba el número de
factores y, por tanto, se volvía impráctico conducir este tipo de experimentos, menos
aún si se efectuaban réplicas, Fisher demostró que esta dificultad puede ser resuelta
incluyendo en los bloques sólo una parte de todas las posibles combinaciones de
tratamiento, llegando así a lo que se conoce como confusión. En los diseños con
bloques confundidos, las interacciones de alto orden están confundidas con los bloques.

El ejemplo que utilizó para ilustrar el concepto de confusión fue un experimento con tres
factores: nitrógeno, fosfato y potasio. En este experimento el investigador estaba
interesado en los efectos principales pero también deseaba estudiar lo que ocurría con
las interacciones de dos factores. Fisher sugiere construir bloques de tamaño cuatro en
lugar del tamaño ocho habitual, y de tal manera que la interacción de tres factores
estuviera confundida con los bloques. Todas las demás comparaciones no se verían
afectadas.

APUNTES DE HISTORIA DE LAS MATEMÁTICAS VOL. 1, NO. 3, SEPTIEMBRE 2002


38 Ya establecidas las ideas básicas de la confusión en bloques, Fisher dejó a otros su
desarrollo, como Frank Yates, quien al iniciar su trabajo en Rothamsted investigó
bastante sobre bloques confundidos. Para 1935 todo el marco conceptual estaba
completo y se establecieron conceptos como ortogonalidad, y confusión parcial. En
1930 H. G. Sanders publica un artículo donde plantea una extensión del análisis de
varianza. Dicha técnica es una combinación de éste con el análisis de regresión y lo
llama análisis de covarianza. En su artículo hace la aclaración de que este tipo de
análisis se debe a R. Fisher y utiliza un ejemplo para mostrar cómo con este
procedimiento se puede incrementar la precisión de un experimento. Todas estas
nuevas ideas sobre diseño experimental dieron lugar a una gran cantidad de
controversias. Se cuestionaba la validez de las pruebas t y z, en el sentido de que
estaban basadas en teorías de normalidad y en muchos de los experimentos los errores
no estaban normalmente distribuidos. Se atacaba la aleatorización pues se pensaba
que un investigador con experiencia y conocimiento del material experimental, podía
lograr un mejor arreglo que el obtenido aleatoriamente. Fisher trataba de aclarar estos
comentarios en discusiones durante los congresos científicos a que asistía, en privado
y en los artículos que publicaba. Durante un tiempo se dio una gran controversia entre
él y su amigo W. Gosset sobre el valor de la aleatorización en el cálculo del error
experimental, misma que dio lugar a una serie de cartas y artículos donde se pueden
apreciar todas estas discusiones. Su libro, Diseño de Experimentos, no es un manual
de instrucción ni incluye ejemplos numéricos; en realidad discute detalladamente los
principios lógicos de la experimentación y algunas complejidades en los diseños
factoriales y diseños confundidos que se utilizan bastante en el trabajo de campo. Este
libro inicia con un ejemplo que dice: “Una mujer declara que tan sólo probando una taza
de té con leche, ella puede decir cuál de estos fue puesto primero en la taza”.

Este es un ejemplo que realmente le sucedió a Ronald Fisher, cuando le invitó a Miss
Buriel Bristol una taza de té con leche y ella la rechazó pues la leche había sido
agregada al final. Es, pues, muy interesante leer en este libro cómo se desarrollaron
algunas técnicas del diseño experimental. El único defecto que se le adjudica a esta
publicación, al igual que a Statistical Methods for Research Workers, es el hacer un
énfasis excesivo en las pruebas de significancia. Fisher encontró de gran interés todos
los problemas combinatorios surgidos de diseños experimentales e hizo contribuciones
notables a la materia. De hecho, encontró que existían 56 cuadrados latinos estándar
de 5 5 y no los 52 que MacMahon, quien era una autoridad en análisis combinatorio,
expuso en Combinatory Analysis. Fisher trabajó bastante en la demostración de la
existencia de soluciones combinatorias al problema de bloques incompletos
balanceados, esto es, diseños en los que el número de unidades en un bloque es menor
que el número de tratamientos y donde cada pareja de tratamientos aparece junta en el
mismo número de bloques. Se mostró todo un catálogo de estos diseños en la primera
edición de Statistical Tables for Biological Agricultural and Medical Research, que en
1938 publicó con Frank Yates. En esta publicación se incluyen tablas para algunas
distribuciones, cuadrados latinos ortogonales, tablas para probar la significancia entre
dos medias, etcétera. En las siguientes ediciones, gracias a la
APUNTES DE HISTORIA DE LAS MATEMÁTICAS VOL. 1, NO. 3, SEPTIEMBRE 2002
39
Cooperación de matemáticos de la India, se agregaron nuevos diseños de bloques
incompletos balanceados y se probó la no existencia de otros. Ronald Fisher colaboró
sólo en una parte de la revisión del material para la sexta edición, publicada en 1963,
pues murió en julio de 1962.
FISHER Y SUS CONTRIBUCIONES A LA GENÉTICA
En este artículo no se cubrirán en detalle las contribuciones de Fisher en genética,
aunque su interés por esta área, como ya se mencionó anteriormente, empezó a muy
temprana edad y uno de sus más importantes artículos lo publicó en 1918, donde abordó
el tema de la correlación existente entre parientes bajo el supuesto de herencia
Mendeliana. En este artículo muestra claramente que esta correlación no solo puede
ser interpretada, sino que la herencia Mendeliana conduce a observar este tipo de
correlaciones. Muestra también cómo la correlación puede ser usada para partir la
variación observada en fracciones heredables y no heredables, las que a su vez se
pueden dividir en otras fracciones. A partir de este artículo se aclararon muchas dudas
sobre este tema. Después de tratar con la cuestión genética de la variación, Fisher
volvió su atención a la relación entre el principio de selección natural de Darwin y los
principios de la herencia de Mendel. Retrasó la publicación de sus conclusiones hasta
1930 y las incluyó como un primer capítulo de su libro The Genetical Theory of Natural
Selection, el cual publicó en ese año.

El Laboratorio Galton le ofreció facilidades para el estudio de genética humana y ahí


pudo desarrollar algunas líneas de investigación; entre ellas se encuentra la
colaboración en el estudio de los tipos sanguíneos humanos y la identificación del ‘gene’
Rhesus. La historia de este estudio la describe en un artículo publicado en 1947, mismo
año en que fue llamado para impartir la cátedra Arthur Balfour de genética en
Cambridge, en la que permanece hasta su retiro en 1957. Los resultados de sus
investigaciones sobre la cría de animales lo llevaron a publicar el libro The Theory of
Inbreeding en 1949. Al igual que en su trabajo teórico, sus experimentos genéticos
estuvieron marcados por la característica de que siempre empezaron con un objetivo
definido y fueron diseñados cuidadosa y específicamente para ese propósito.

Algunos de ellos, como sus experimentos con aves, terminaron cuando se alcanzó el
objetivo planteado. El análisis teórico siempre estuvo por delante de la investigación
experimental, esto con el fin de asegurar que los objetivos estuvieran bien definidos.
Así, siempre a su manera, los experimentos genéticos que llevaba a cabo ilustraban su
credo estadístico. A pesar de todo esto, Fisher nunca ocupó una posición dominante en
genética como lo hizo en estadística.
DISTINCIONES RECIBIDAS
Durante su vida, Fisher recibió muchos honores y premios entre los que se pueden
mencionar:

Vous aimerez peut-être aussi