Académique Documents
Professionnel Documents
Culture Documents
Es una serie ordenada de procedimientos de que hace uso la investigación científica para observar la
extensión de nuestros conocimientos. Podemos concebir el método científico como una estructura, un
armazón formado por reglas y principios coherentemente concatenados.
El método científico es quizás uno de los más útil o adecuado, capaz de proporcionarnos respuesta a nuestras
interrogantes. Respuestas que no se obtienen de inmediato de forma verdadera, pura y completa, sin antes
haber pasado por el error. Esto significa que el método científico llega a nosotros como un proceso, no como
un acto donde se pasa de inmediato de la ignorancia a la verdad. Este es quizás el método más útil o
adecuado, ya que es el único que posee las características y la capacidad para auto corregirse y superarse,
pero no el único. Aunque se puede decir también que es la conquista máxima obtenida por el intelecto para
descifrar y ordenar los conocimientos. Donde se debe seguir los pasos fundamentales que han sido
desarrollados a través de muchas generaciones y con el concurso de muchos sabios.
PASOS DEL METODO CIENTIFICO
Observación:
Consiste en la recopilación de hechos acerca de un problema o fenómeno natural que despierta nuestra
curiosidad. Las observaciones deben ser lo más claras y numerosas posible, porque han de servir como base
de partida para la solución.
Hipótesis:
Es la explicación que nos damos ante el hecho observado. Su utilidad consiste en que nos proporciona una
interpretación de los hechos de que disponemos, interpretación que debe ser puesta a prueba por
observaciones y experimentos posteriores. Las hipótesis no deben ser tomadas nunca como verdaderas,
debido a que un mismo hecho observado puede explicarse mediante numerosas hipótesis.
El objeto de una buena hipótesis consiste solamente en darnos una explicación para estimularnos a hacer
más experimentos y observaciones.
Experimentación:
Consiste en la verificación o comprobación de la hipótesis. La experimentación determina la validez de las
posibles explicaciones que nos hemos dado y decide el que una hipótesis se acepte o se deseche.
Teoría:
Es una hipótesis en cual se han relacionado una gran cantidad de hechos acerca del mismo fenómeno que
nos intriga. Algunos autores consideran que la teoría no es otra cosa más que una hipótesis en la cual se
consideran mayor número de hechos y en la cual la explicación que nos hemos forjado tiene
mayor probabilidad de ser comprobada positivamente.
Los pasos del método científico sirven para responder a una pregunta científica de una forma organizada y
objetiva. Implica observar el mundo y sus fenómenos, llegar a una explicación de lo que se observa, probar si
la explicación es válida, y finalmente aceptar o negar la explicación.
El método científico tiene por tanto una serie de características que lo definen: observación, experimentación, y
hacer y responder preguntas. Sin embargo, no todos los científicos siguen exactamente este
proceso. Algunas ramas de la ciencia pueden ser más fácilmente probadas que otras. Pregunta, observación,
hipótesis, experimento, análisis de datos, conclusiones.
Por ejemplo, los científicos que estudian cómo cambian las estrellas a medida que envejecen o cómo los
dinosaurios digerían sus alimentos no pueden adelantar la vida de una estrella en un millón de años o realizar
estudios y pruebas con los dinosaurios para probar sus hipótesis.
Cuando la experimentación directa no es posible, los científicos modifican el método científico. Aunque, se
modifica casi con cada investigación, el objetivo es el mismo: descubrir relaciones de causa y efecto haciendo
preguntas, recopilando y examinando datos y viendo si toda la información disponible puede combinarse en una
respuesta lógica. Por otra parte, a menudo las etapas del método científico son iterativas; nueva información,
observaciones o ideas pueden hacer que se vuelvan a repetir los pasos.
El método científico no es investigación científica. Existe relación entre ellos pero también
distinción. Para realizar una correcta investigación sin duda que es imprescindible el método
científico, pero éste puede y de hecho se emplea sin que hagamos una investigación, al menos
aquellas que llevamos a cabo como tesis para licenciarnos o las que tienen lugar en centros e
institutos especiales dedicados a ello.
La actividad humana que emplea consciente o no, el método científico es actividad científica.
El hombre interrelaciona constantemente con su medio. Hombre – medio constituye una unidad
dialéctica. El hombre requiere transformar su medio. Está consciente de la necesidad y
trascendencia de los cambios, pero el problema está en cómo hacerlo.
La transformación de la realidad puede ser espontánea o dirigida y ésta última a partir de la
experiencia cotidiana o mediante el conocimiento científico.
BIBLIOGRAFIA
WWW.WIKIPEDIA.COM
MONOGRAFIAS.COM
INEB DE SAN PEDRO SACATEPEQUEZ, SAN MARCOS
Ciclo Escolar
2,018
INEB DE SAN PEDRO SACATEPEQUEZ, SAN MARCOS
Ciclo Escolar
2,018
LEYES DE NEWTON
La primera y segunda ley de Newton, en latín, en la edición original de su obra Principia Mathematica
Las leyes de Newton, también conocidas como leyes del movimiento de Newton,1 son tres principios a partir de los
cuales se explican una gran parte de los problemas planteados en mecánica clásica, en particular aquellos relativos
al movimiento de los cuerpos, que revolucionaron los conceptos básicos de la física y el movimiento de los cuerpos en el
universo. Constituyen los cimientos no solo de la dinámica clásica sino también de la física clásica en general. Aunque
incluyen ciertas definiciones y en cierto sentido pueden verse como axiomas, Newton afirmó que estaban basadas en
observaciones y experimentos cuantitativos; ciertamente no pueden derivarse a partir de otras relaciones más básicas.
La demostración de su validez radica en sus predicciones... La validez de esas predicciones fue verificada en todos y
cada uno de los casos durante más de dos siglos. En concreto, la relevancia de estas leyes radica en dos aspectos: por
un lado constituyen, junto con la transformación de Galileo, la base de la mecánica clásica, y por otro, al combinar estas
leyes con la ley de la gravitación universal, se pueden deducir y explicar las leyes de Keplersobre el movimiento
planetario. Así, las leyes de Newton permiten explicar, por ejemplo, tanto el movimiento de los astros como los
movimientos artificiales creados por el ser humano y toda la mecánica de funcionamiento de las máquinas. Su
formulación matemática fue publicada por Isaac Newton en 1687 en su obra Philosophiæ naturalis principia
mathematica.nota 1 La dinámica de Newton, también llamada dinámica clásica, solo se cumple en los sistemas de
referencia inerciales (que se mueven a velocidad constante; la Tierra, aunque gire y rote, se trata como tal a efectos de
muchos experimentos prácticos). Solo es aplicable a cuerpos cuya velocidad dista considerablemente de la velocidad de
la luz; cuando la velocidad del cuerpo se va aproximando a los 300 000 km/s (lo que ocurriría en los sistemas de
referencia no-inerciales) aparecen una serie de fenómenos denominados efectos relativistas. El estudio de estos efectos
(contracción de la longitud, por ejemplo) corresponde a la teoría de la relatividad especial, enunciada por Albert
Einstein en 1905.
HISTORIA
Busto de Aristóteles
La dinámica es la parte de la física que estudia las relaciones entre los movimientos de los cuerpos y las causas que los
provocan, en concreto las fuerzas que actúan sobre ellos. La dinámica, desde el punto de vista de la mecánica clásica,
es apropiada para el estudio dinámico de sistemas grandes en comparación con los átomos y que se mueven a
velocidades mucho menores que las de la luz.3 Para entender estos fenómenos, el punto de partida es la observación del
mundo cotidiano. Si se desea cambiar la posición de un cuerpo en reposo es necesario empujarlo o levantarlo, es decir,
ejercer una acción sobre él. Aparte de estas intuiciones básicas, el problema del movimiento es muy complejo: todos
aquellos que se observan en la naturaleza (caída de un objeto en el aire, movimiento de una bicicleta, un coche o un
cohete espacial) son complicados. Esto motivó que el conocimiento sobre estos hechos fuera erróneo durante
siglos. Aristóteles pensó que el movimiento de un cuerpo se detiene cuando la fuerza que lo empuja deja de actuar.
Posteriormente se descubrió que esto no era cierto pero el prestigio de Aristóteles como filósofo y científico hizo que
estas ideas perduraran siglos,nota 24 hasta que científicos como Galileo Galilei o Isaac Newton hicieron avances muy
importantes con sus nuevas formulaciones. Sin embargo hubo varios físicos que se aproximaron de manera muy certera
a las formulaciones de Newton mucho antes de que este formulara sus leyes del movimiento. Busto de Domingo de
Soto en Segovia. Es el caso del español Juan de Celaya,5 matemático, físico, cosmólogo, teólogo y filósofo que en 1517
publicó un tratado titulado In octo libros physicorum Aristotelis cum quaestionibus eiusdem, secundum triplicem viam
beati Thomae, realium et nominatium, obra de especial interés para el estudio de los orígenes de la moderna ciencia del
movimiento. Durante su etapa en Francia fue un escritor prolífico, escribiendo sobre todo acerca de la física de
Aristóteles y el movimiento. También publicó numerosos trabajos sobre filosofía y lógica. Fue uno de los impulsores de
la lógica nominalista y de las ideas mertonianas de los calculatores acerca de la dinámica. Fue capaz de enunciar, dentro
de las leyes de Newton, la primera ley de o primer principio de la dinámica (una de las leyes más importantes de la física)
un siglo antes que Newton.6 Otro destacado pionero fue el también español, y discípulo de Celaya, Domingo de Soto,7
fraile dominico y teólogoconsiderado como el promotor de la física moderna.8 Su teoría del movimiento uniformemente
acelerado y la caída de los graves fue el precedente de la ley de la gravedad de Newton. Escribió numerosas obras de
teología, derecho, filosofía y lógica y también comentó varios libros de física y lógica aristotélica, de los cuales el más
importante fue Quaestiones super octo libros physicorum Aristotelis (1551), sobre cinemática y dinámica, la cual fue
publicada en varias ciudades italianas, influyendo en personajes como Benedetti o Galileo. Domingo de Soto fue uno de
los primeros en establecer que un cuerpo en caída libre sufre una aceleración uniforme con respecto al tiempo —dicha
afirmación también había sido establecida por Nicolás Oresme casi dos siglos antes— y su concepción sobre la masa fue
avanzada en su época. En su libro Quaestiones explica la aceleración constante de un cuerpo en caída libre de esta
manera: Este tipo de movimiento propiamente sucede en los graves naturalmente movidos y en los proyectiles. Donde un
peso cae desde lo alto por un medio uniforme, se mueve más veloz en el fin que en el principio. Sin embargo el
movimiento de los proyectiles es más lento al final que al principio: el primero aumenta de modo uniformemente disforme,
y el segundo en cambio disminuye de modo uniformemente disforme.9 Domingo de Soto ya relacionaba dos aspectos de
la física: el movimiento uniformemente disforme (movimiento uniformemente acelerado) y la caída de graves (resistencia
interna). En su teoría combinaba la abstracción matemática con la realidad física, clave para la comprensión de las leyes
de la naturaleza. Tenía una claridad rotunda acerca de este hecho y lo expresaba en ejemplos numéricos concretos.
Clasificó los diferentes tipos de movimiento en:8nota 3
MOVIMIENTO UNIFORME RESPECTO AL TIEMPO: Es aquel por el que el mismo móvil en iguales intervalos de tiempo
recorre iguales distancias, como se da perfectamente en el movimiento extremadamente regular del cielo. Movimiento
disforme con respecto al tiempo: Es aquel por el cual, en partes iguales de tiempo son recorridas distancias desiguales, o
en (tiempos) desiguales, (espacios) iguales. Movimiento uniformemente disforme con respecto al tiempo: Es el
movimiento de tal modo disforme, que si dividimos según el tiempo, (la velocidad de) el punto medio de la proporción
excede (la velocidad de) el extremo más lento lo que es excedida por el más rápido. El movimiento uniformemente
disforme respecto al tiempo es aquel cuya deformidad es tal, que si se le divide según el tiempo, es decir, según las
partes que se suceden en el tiempo, en cada parte del movimiento del punto central excede del movimiento extremo el
menor de esa misma parte en cantidad igual a aquella en la que él mismo es superado por el movimiento extremo más
intenso. Soto describió el movimiento de caída libre como ejemplo de movimiento uniformemente acelerado por primera
vez, cuestión que solo aparecerá posteriormente en la obra de Galileo: 8nota 4 ... este tipo de movimiento propiamente
sucede en los (graves) naturalmente movidos y en los proyectiles. Donde un peso cae desde lo alto por un medio
uniforme, se mueve más veloz en el fin que en el principio. Sin embargo el movimiento de los proyectiles es más lento al
final que al principio: el primero aumenta de modo uniformemente disforme, y el segundo en cambio disminuye de modo
uniformemente diforme Por lo tanto era aplicable la ley de la velocidad media para calcular el tiempo de caída: Esta
especie de movimiento es la propia de los cuerpos que se mueven con movimiento natural y la de los proyectiles. En
efecto, cada vez que cae una masa desde una cierta altura y en el seno de un medio homogéneo, se mueve al final más
de prisa que al principio. Pero el movimiento de los proyectiles es más lento al final que al comienzo, y así el primero se
intensifica, y el segundo se debilita uniformemente. Movimiento deformante disforme con respecto al tiempo: Es el
movimiento en tal modo disforme, que si es dividido según el tiempo, no ocurre que el punto medio de cada parte en la
misma proporción excede (en velocidad) a un extremo cuanto es excedido por el otro. Este tipo de movimiento es el que
esperamos en los animales, donde se observa el aumento y la disminución.
RETRATO DE GALILEO GALILEI: Este fue un descubrimiento clave en
física y base esencial para el posterior estudio de la gravedad por Galileo
Galilei e Isaac Newton. Ningún científico de las universidades
de París y Oxford de aquella época había conseguido describir la relación
entre movimiento uniformemente disforme en el tiempo y la caída de los
graves como lo hizo Soto. Tras las ideas innovadoras sobre el movimiento
de estos científicos, Galileo hizo un avance muy importante al introducir
el método científico que enseña que no siempre se debe creer en las
conclusiones intuitivas basadas en la observación inmediata, pues esto
lleva a menudo a equivocaciones. Galileo realizó un gran número de
experiencias en las que se iban cambiando ligeramente las condiciones del
problema y midió los resultados en cada caso. De esta manera pudo
extrapolar sus observaciones hasta llegar a entender un experimento
ideal.3nota 5 En concreto, observó cómo un cuerpo que se mueve
con velocidad constante sobre una superficie lisa se moverá eternamente
si no hay rozamientos ni otras acciones externas sobre él. Inmediatamente
se presentó otro problema: ¿si la velocidad no lo revela, qué parámetro del
movimiento indica la acción de fuerzas exteriores?; Galileo respondió
también a esta pregunta, pero Newton lo hizo de manera más precisa: no
es la velocidad sino su variación la consecuencia resultante de la acción de
arrastrar o empujar un objeto. Esta relación entre fuerza y cambio de
velocidad (aceleración) constituye la base fundamental de la mecánica
clásica. Fue Isaac Newton (hacia 1690) el primero en dar una formulación
completa de las leyes de la mecánica e inventó los procedimientos
matemáticos necesarios para explicarlos y obtener información a partir de
ellos.3nota 6
RESUMEN
No hay una amplia o urgente demanda por gente que defina métodos de prueba con
el fin de mejorar la estadística matemática. Hay una urgente demanda por quienes
entiendan la estadística teórica, pero que sean capaces también de reconocer
situaciones en el mundo real para las cuales la estadística es aplicable.
ABSTRACT
Sir Ronald Fisher (1890-1962) was a genetics professor and many of his statistical
innovations were shown in the development of genetic statistic methodology. However,
while his mathematical statistic contributions are easily identified, his supremacy in
populations' genetics was shared with Sewall Wright (1889 - 1988) and J. S. S. Haldane
{1892 -1965}. This document shows some of Fishers best contributions to the genetic
statistic bases and his interactions w1th Wright and Haldane. Whom contributed to the
development of the topic. With modern technology, statistical methodology as much as
genet1c Information is changing. Nevertheless, many F1sher's works remain valid and
can still serve as a base for future researches in DNA data statistical. This author's work
reflects his vision about the statistic role in the scientific inference expressed in 1949.
INTRODUCCIÓN.
En estadística, sir Ronald A. Fisher es el primero en establecer las bases de buen arte
de la teoría y práctica prevalecientes. Sus contribuciones son fáciles de identificar;
desde el diseño de experimentos, ANOVA (análisis de varianza) y modelo lineal general,
por medio de verosimilitud, máxima verosimilitud, información, consistencia y eficiencia,
pasando por suficiencia, e intervalo de confianza, pruebas de significancia, familia de
exponenciales, familia de transformaciones y análisis discriminante lineal. Sin embargo,
Fisher nunca fue profesor de estadística sino de genética. Una razón es que la mayor
parte de sus aportes consisten precisamente en establecer la estructura de la inferencia
estadística paramétrica relacionada con cuestiones genéticas, y modelos basados en
análisis de verosimilitud como la principal estructura para inferencia genética; sus
contribuciones a la estadística genética no pueden ser separadas de sus legados a la
estadística general.
En 1922, Fisher publicó tres importantes artículos: 1) presentó las bases para el futuro
desarrollo de la genética de poblaciones teórica; 2) presentó las bases para el desarrollo
de la Estadística Matemática; 3) demostró las ideas estadísticas teóricas del segundo,
aplicándolas a la mayor área estadística del análisis genético que yo la construcción de
mapas de ligamento genético-. Con esos tres documentos, Fisher establece su lugar
como fundador de la genética de poblaciones, la estadística matemática y la estadística
genética.
Una vez la selección natural llegó a aceptarse como la fuerza conductora del cambio
evolucionista, el período propio para un extenso rango de estudios sobre la evolución
de los sistemas genéticos se dio. En primer lugar, la teoría evolucionista se interesó por
la evolución de los sistemas reproductivos y por la evolución de la dominancia; estos
conceptos fundamentales fueron tratados repetidamente por Fisher, Haldane y Wright.
Conjuntamente, presentaron una base perdurable para el más moderno trabajo en el
área. Los nombres frecuentemente asociados con la primera teoría de la evolución de
la recombinación son Muller (1932) y Haldane (1932), pero Fisher (1930) también hizo
su contribución a esta discusión. En la misma época, el desarrolló la idea de un
polimorfismo balanceado, un componente fundamental de la biología poblacional
teórica. Sin embargo, Fisher es el mayor foco en esta época en la evolución de la
dominancia, con su primer documento en 1922, y muchos otros entre 1928 y 1934. Si
bien este tópico ha tenido menos impacto en la investigación reciente, él mismo pensó
que su teoría de dominancia era de gran importancia y, por consiguiente, debía
mencionarse. Además, este tópico ilustra mejor lo positivo de las interacciones adversas
entre Fisher y Wright. El trabajo realizado por Fisher en sus artículos obtiene respuesta
de Wright, retomando la discusión con un intercambio final en 1934. Haldane también
participó en este debate. Éste intercambio de críticas no sólo incitó desarrollos de la
teoría, sino también exigió que cada adversario aclarara su pensamiento, un mayor
beneficio para posteriores investigaciones.
Que Fisher fue el creador de "el teorema fundamental de la selección natural" es bien
conocido, si el debate alrededor de este teorema continúa (Ewens, 1989). De mayor
interés aquí son las diferentes perspectivas de selección- conducción propuestas por
Fisher, Haldane y por Wright-. Haldane, en virtud de su interés en mutación, investigó
muchos casos de equilibrio-mutación-selección en una serie de documentos de 1926 a
1932, y desarrolló ideas de carga mutacional (Haldane, 1937). Wright, con sus teorías
"paisajes adaptados" y "equilibrio cambiante" (1970), chocó con la visión de Fisher la
formulación de Wright-irónicamente para algunos, quienes opinan que su estructura
poblacional de entrecruzamiento fueron de gran interés-, asumió el apareamiento
aleatorio y la ausencia de interacción entre genes. La formulación de Fisher tomó cuenta
del apareamiento e interacción, sobre lo cual comentaba mordazmente: "yo nunca he
escrito acerca de (media poblacional ajustada)... la existencia de tal función potencia...
no es una propiedad general de poblaciones naturales, sino que se origina únicamente
en los casos restringidos y especiales de Wright... considera" (1958).
Una tercera razón por la cual es difícil limitar una discusión sobre Fisher a sus
contribuciones estadísticas genéticas, este muy poco de genética de poblaciones o de
genética evolucionista es primariamente estadística, si bien tiene muchos elementos
estadísticos dentro. Sin embargo, si uno fuera a preguntar a expertos en genética cuáles
son las áreas de mayor demanda estadística, las respuestas deberían probablemente
ser unánimes-determinación y análisis del ligamento-. Gran parte de lo que está hecho
en ambas áreas fue trazado por el trabajo de Fisher de 1934 a 1936. En las áreas de
análisis de ligamento y epidemiología genética humana han divergido de aquellas de
evolución y teoría genética de poblaciones, pero los pioneros no ven razón para separar
sus ideas. Fisher y Haldane trabajaron inicialmente en el análisis de encadenamiento,
y sobre determinación presentaron la base muchas de las prácticas modernas en
epidemiología genética. Sus contribuciones no son fácilmente separables. Si bien Fisher
es mejor conocido por su trabajo sobre determinación, y Haldane y Smith (1947) por su
extensión de las bases del análisis de ligamento, ambos fueron activos en dichas áreas
durante los años 30.
Así, lo que más interesó a Fisher fue colocar el problema de muestrear en genética
humana en un más amplio contexto estadístico el contexto de la inferencia máximo-
verosímil, eficiencia e información de Fisher. En efecto, Fisher se acreditó con Haldane,
mostrando que los estímulos de los parámetros considerados son estimadores máximo-
verosímiles. Su tema fundamental en este documento es sobre las eficiencias relativas
de procedimiento de muestreo alternativo; esto permanece como un tópico de la
investigación estadística genética corriente (Thompson, 1986).
El arreglo lineal de genes sobre cromosomas fue demostrado por Sturtevant (1913), por
medio de un análisis estadístico de cálculos recombinados en Drosophila. Fisher (1922)
mismo uso cálculos recombinados en cruzamientos diseñados para ilustrar sus
desarrollos estadísticos teóricos. Hasta los documentos de Fisher de 1934 a 1936,
revelan que él estaba poco interesado en la estimación máximo verosímil que ha sido
claramente desarrollado por Haldane (1934), cuyo documento incitó a Fisher al análisis.
Mejor dicho, Fisher está de nuevo interesado en información y eficiencia y en la pérdida
de eficiencia debida a la estimación de otros parámetros genéticos (1934). El uso de
máxima verosimilitud y registro LOG (log- cocientes de verosimilitud) es a un estándar
en el análisis de ligamento humano; Fisher (1935) presentó la infraestructura. Hay
muchos intereses modernos en el uso del análisis de ligamento para planteamiento
genético (Conneally, 1989); Fisher (1934) previno sobre el más grande beneficio del
planteamiento que debería resultar de estudios de ligamento. Activando investigaciones
con nuevos y más eficientes métodos para estudiar la potencia de un estudio de
encadenamiento (Ploughman, Boehnke, Lcinge y Matthyse, 1989).
Los tipos de sangre humana proporcionaron (y para algunos tiende a proporcionar) una
maravillosa y abundante oportunidad de información para aquellos intereses en
variación mendeliana, y Fisher tuvo un perspicaz interés en desarrollos serológicos a
comienzos de los 30's. Box (1978); él no estuvo únicamente interesado en teoría y
formulaciones matemáticas. Fue en los 40's que Fisher (1947) hizo su mayor
contribución al esclarecimiento de los tipos de sangre Rhesus, lo cual de nuevo muestra
su visión de la inferencia científica (deducciones teóricas de datos del mundo real), la
construcción de una estructura aplicable a las situaciones del mundo real e inferencia
dentro del contexto de la estructura para una más amplia gama de problemas
evolucionistas.
Una pregunta legítima es por qué Fisher y Haldane, habiendo reconocido la importancia
del ligamento humano y del análisis de segregación, y presentando las bases de la
teoría y la metodología, no continuaron con el tema más adelante. Hay quizás dos
razones: una es que los datos para detallar mapas de encadenamiento genético
humano no estuvieran disponibles. Únicamente con la llegada de señales (marcas) muy
polimórficas de DNA ha sido posible mapear a gran escala encadenamiento,
segregación y análisis de eslabonamiento. El advenimiento de los computadores más
rápidos y más accesibles ha cambiado nuestra aproximación hacia la ciencia. Un trabajo
de Fisher fue la derivación algebraica meticulosa y la extinción producida por los
cálculos manuales a tablas numéricas. Habría él dado la bienvenida a los computadores
y la potencia enormemente incrementada para análisis de ligamento y el análisis de
segregación que nosotros tenemos como resultado.
En los últimos años-puesto que Fisher muere en julio de 1962-, los datos han cambiado
fuera de todo reconocimiento. Primero, los tipos de sangre fueron aumentando mediante
polimorfismos de encimas; luego, por polimorfismos de DNA, (Botstein et al, 1980); más
tarde, por impresión digital de multilocus de DNA (Jeffreys, Willson y Thein, 1985), y
ahora por polimorfismos de un único locus VNTR (Nakamura et al, 1987). La información
secuencial de DNA está disponible actualmente en (mapa genético).
En principio, los nuevos polimorfismos son muy coherentes; del mismo modo los tipos
de sangre proporcionan señales mendelianas cuantitativas pueden ser usadas para
asignar diferenciación poblacional y variación individual. La diferencia se encuentra en
el hecho que la densidad de la información sobre los genomas está ordenada en
magnitud creciente. En lugar de esforzarse para encadenar unos pocos pares de
sistemas de tipos de sangre, y quizás asignárselos a uno de los 22 pares de autosomas,
los expertos en genética pueden ahora ensayar a ordenar 50 señales de DNA, todas
condicionadas por estar situadas en una pequeña región cromosomal. Análisis basados
en modelos oligogénicos no son aplicables a tales datos; una nueva estructura en la
cual el cromosoma es tratado como una continuación de información genética es
necesario. En efecto, semejante estructura fue proporcionada por Fisher (1949) en el
contexto de sus estudios de intracruzamiento.
En su serie de cinco documentos pioneros en 1921, Wright (1921) coloca la base original
de esta área; las futuras generaciones de contribuciones provinieron de Cotterman
(1940) y Malecot (1948), más que de Fisher o de Haldane. El trabajo de Wright sobre
estructura poblacional condujo también a su teoría de aislamiento por distancia (1943),
con la cual a pesar del trabajo de Fisher sobre la ecuación de difusión (1922) y sobre
clinas (1950), hizo Wright la mayor contribución a esta área. Sin embargo, el trabajo de
Wright el entrecruzamiento y estructura poblacional fue en el contexto de un único (o
algunas veces múltiple, pero segregado independientemente) loci. Haldane tuvo un
interés en entrecruzamiento en el contexto de letales recesivos, y también, a través de
esto, en entrecruzamiento de loci encadenado (Cf. Haldane, 1949).
Con el transcurso de los años, el aspecto del trabajo de Fisher que ha tenido mayor
impacto en la investigación corriente en estadística genética ha cambiado
continuamente durante los años 20's, la teoría evolucionista básica fue silenciosamente
desarrollada. Fisher (1930) describió la teoría y, en conjunto, la escena para desarrollos
futuros. Durante los años 30's, las ideas de análisis de encadenamiento fueron iniciadas
y ha permanecido en uso desde entonces. Durante los 40's, los tipos de sangre llegan
a ser un área importante de investigación. Los 50's vieron renovada la actividad en el
área genética cuantitativa, particularmente en el aria de crianza de plantas y animales;
en los 60's con la enorme expansión de la biología poblacional matemática. El trabajo
de Fisher sobre teoría evolucionista recibió renovada atención.
En los 70's con el crecimiento del trabajo en análisis epidemiológico genético humano
de complejas características, Fisher contribuyó a que la teoría de determinación llegara
a ser bien conocida. En los 80's tuvo lugar la década del análisis. Las bases estadísticas
fueron presentadas por Fisher y Haldane entre 1934 y 1936. En los 90's polimorfismos
del DNA y secuencias de DNA llegaron a ser los datos de selección para dirigir
cuestiones de epidemiología genética y biología evolucionista: a través de su teoría de
empalmes, la más grande contribución de Fisher a estadística genética y aún puede ser
usada Samuel Fisher nació en Inglaterra en 1890 y murió en Adelaida, Australia en
1962; tuvo como interés fundamental unificar darwinismo y mendelismo, pero en el
contexto de la biometría y con marcado interés en la eugenesia, cuestión que lo
diferencia de Wright.
Provine, uno de los estudiosos de este periodo, escribe que probablemente desde
1912 El origen de las especies de Darwin y los artículos de Karl Pearson convencieron
a Fisher de que la selección natural es la fuerza primaria del cambio evolutivo, y de que
opera sobre variación continua. Pearson defendía que la variación continua debería de
ser heredable, pues pensó que si no fuera así la cantidad de variación disminuiría.
Fisher, a diferencia de Pearson, aceptó la herencia mendeliana y la continuidad del
germoplasma. Por lo tanto, reconoció –como los genetistas mendelianos– que los
factores individuales no se mezclan vía el cruzamiento y que, por lo tanto, la variabilidad
se conserva. Uno de los problemas fundamentales de Darwin, el de la pérdida de
variabilidad por el cruzamiento y la supuesta dilución de caracteres que llevaría a la
homogenización de las poblaciones, queda explícitamente resuelto con los cálculos
matemáticos de Fisher.
Uno de sus artículos más importantes fue publicado en 1922: “On the dominance ratio”.
En él analiza la interacción de los diferentes mecanismos de evolución, como selección,
mutación, extinción al azar de genes y otros procesos relacionados, como la dominancia
y apareamiento no al azar.
Fisher no consideró que los cambios por azar en la composición genérica de las
poblaciones (deriva génica) tuvieran gran importancia en la evolución; sin embargo
no negó que esto puede ocurrir en poblaciones pequeñas. Por su idea de la selección
natural como el mecanismo más importante consideró que, siempre, la evolución era
orientada hacia el aumento en la adaptación; por la misma razón, pensó que las
condiciones ideales para que haya evolución se dan en poblaciones grandes. Una
mutación tendrá mayor posibilidad de fijarse a bajas frecuencias en una población
grande en vez de una pequeña, simplemente porque la mutación sobrevivirá con mayor
frecuencia en una población grande. “Entonces una especie numerosa con la misma
frecuencia de mutación, mantendrá una variabilidad más alta que una especie menos
numerosa” (Fisher, 1922). Una consecuencia de este punto de vista es que una tasa
pequeña de mutación puede balancear los efectos adversos de la selección en una
población grande más fácilmente que en una población pequeña. Esta idea es
fundamental en la visión de evolución de Fisher.
Fisher comparó su teoría de la evolución con las leyes generales del comportamiento
de los gases. De hecho, su teorema fundamental recuerda la estructura de la segunda
Ley de la termodinámica. (Depew y Weber, 1995, hacen un amplio análisis de la relación
del pensamiento de Fisher con los de Newton, Maxwell y Boltzmann). En este sentido,
pensaba que se debe considerar a las poblaciones naturales no tanto como conjuntos
de seres vivos sino como conjuntos de tasas genéticas. La visión determinística de la
actividad adaptativa de la selección natural impidió a Fisher entender la relatividad de
la adecuación (fitness) respecto a los diferentes ambientes en que puede habitar un
mismo genotipo y los casos en los que la selección natural puede favorecer la aparición
de caracteres no adaptativos; sin embargo,
Al hacer la selección natural medible y comprobable y hacerla ver como una explicación
causo-mecánica, mucho del estatus metafísico y especulativo del fenómeno fue
removido […] A mediados de los años 30 están juntos todos los componentes que hacen
al evolucionismo una ciencia tan mecanicista y materialista como es posible,
fundamentados en el principio de equilibrio de Hardy-Weinberg, y siguiendo la
‘observación y el experimento’ pero en una forma que permitirá la independencia de las
ciencias biológicas (Smocovitis, 1996).
Como acertadamente señalan Depew y Weber (1995, p. 268), Fisher logró un notable
avance en la intención de Darwin de hacer de la teoría de la evolución una
“convergencia de inducciones” a la manera de Whewell, y entonces unificar y explicar
gran número de fenómenos biológicos. Si bien a Darwin lo limitaron la ausencia de una
teoría idónea de la herencia y la matematización de la acción de la selección natural
sobre la herencia Fisher consiguió explicar en términos probabilísticos por qué la
varianza será mantenida en una población polimórfica y por qué, en consecuencia, los
heterocigotos tienen una adecuación mayor que los homocigotos; por qué es tan difícil
eliminar por completo genes recesivos en una población natural, aun por cruzas y
selección intensa en el laboratorio; cómo la dominancia pudo haber evolucionado paso
a paso como todos los demás caracteres, a partir de heterocigosis; por qué los sexos
tienen una proporción de 1:1; cómo ha surgido el mimetismo, y otros aspectos
evolutivos. Fisher mostró matemáticamente que la competencia no es normalmente una
cuestión de muertes diferenciales, sino de fecundidad comparativa, sustentada en la
eficiencia diferencial en el uso y la repartición de los recursos. Fisher nació en Finchley,
Londres, el 17 de febrero de 1890. Fue hijo de George Fisher, subastador y miembro
de una familia conformada mayormente por hombres de negocios y de Katie Heath,
mujer dedicada al hogar e hija del notario londinense Thomas Heath. A muy temprana
edad, Fisher mostró una gran inteligencia y precocidad por las matemáticas. Antes de
los seis años su madre le leyó un libro de astronomía que lo motivó a continuar con este
estudio, por lo que a la edad de siete u ocho años atendió las clases de Sir Robert Ball.
Sus problemas de la vista consistentes en una extrema miopía, le impedían trabajar con
luz eléctrica, por lo que, bajo la tutoría de G. H. Mayo, desarrolló una gran habilidad para
resolver problemas matemáticos sin el uso de lápiz y papel, tan sólo efectuando cálculos
mentales. En estas tutorías trabajó principalmente trigonometría esférica y con esto
logró un gran sentido geométrico que fue de gran influencia en sus trabajos posteriores.
Esta facilidad era en ocasiones un inconveniente pues algunos matemáticos de su
tiempo, carentes de esta habilidad, no entendían sus razonamientos, que para él
resultaban obvios. En 1904 sufre la pérdida de su madre, quien muere repentinamente
de peritonitis y para 1906, su padre realiza malos negocios que impiden lo siga
ayudando económicamente, por lo que debe buscar alguna manera de sostenimiento.
Generalmente contó con cierto tipo de becas para sus estudios y en 1909 recibió una
más para estudiar en la Universidad de Cambridge, donde, en 1912 se graduó como
Wrangler1. Es ahí donde empezó a interesarse en la teoría de la evolución y la selección
natural de Darwin y en genética, pues, aunque su educación fue matemática, desde
temprana edad tuvo interés en la biología. Después de graduarse estuvo en Cambridge
un tiempo más, estudiando mecánica estadística bajo la asesoría de James Jeans.
También estudió la teoría de errores en observaciones astronómicas bajo F. J. M.
Stratton y fue esto último lo que lo condujo a investigar problemas estadísticos. En abril
de 1912 publicó su primer artículo, en el cual desarrolló lo que luego sería conocido
como el método de máxima verosimilitud. Ronald Fisher tuvo por mucho tiempo una
relación amistosa con William S. Gosset, hombre generoso, amigable y con una gran
variedad de intereses. Gosset publicaba bajo el seudónimo de Student y en el verano
de 1912 mantuvo correspondencia con Fisher en relación al denominador (n-1) de la
fórmula de la varianza, ya que, derivando el estimador de máxima verosimilitud para la
varianza de una muestra proveniente de una población normal, Fisher había llegado al
denominador n en lugar de (n-1) obtenido por Gosset. La facilidad matemática que
Fisher tenía, le permitió
básicamente todas las nuevas técnicas desarrolladas, que fueron de gran utilidad para
los biólogos. Fisher tenía un principio de justicia muy fuerte y escribió una nota histórica
en este libro elogiando a Gosset y donde dice: “El trabajo de Student no ha sido
totalmente apreciado, de hecho ha sido ignorado en las revistas donde ha aparecido, y
uno de los principales propósitos de la primera edición de este libro es que se reconozca
la importancia de estas investigaciones y su consecuente trabajo matemático”. Para
entonces el trabajo de Fisher era ya reconocido por un amplio círculo de investigadores
y se incrementó considerablemente el número de visitantes provenientes de otros
institutos que deseaban trabajar con él. En 1929 fue electo miembro de la Royal Society
de Londres. Dado que Fisher siempre se había interesado en genética y evolución, en
esta estación experimental inicia una serie de experimentos de crías de ratones,
caracoles y aves, y con estos últimos confirma su teoría de dominancia en la evolución.
En Rothamsted nunca se habían efectuado este tipo de experimentos, pero se le
proporcionaron tierras para la cría de ciertos animales, como aves y caracoles. Los
ratones tuvo que mantenerlos en su casa con la ayuda de su esposa e hijos. Así, para
1930 publicó Genetical Theory of Natural Selection en la que logra una reconciliación
entre las ideas de Darwin sobre selección natural y la teoría de Mendel, pues relaciona
la teoría de la evolución de Darwin con los principios genéticos de Mendel. Su esposa
le ayudó en la escritura de este libro y el contenido del mismo era un interesante tema
de discusión para su familia. Fisher siempre trató de involucrar a sus hijos en su trabajo
y algunos de ellos le ayudaban con la cría de animales. Durante el período de 1931 a
1936 realizó estancias de verano en la Universidad Estatal de Iowa. Su trabajo en
genética fue reconocido de manera tal que en 1933 se le ofreció la posición de Galton
Professor en el University College of London, esto es, profesor en el Laboratorio Galton
para la cátedra de eugenesia, en sucesión de Karl Pearson, quien fundó este laboratorio
en 1904, como un centro de investigación en genética humana. Fisher aceptó esta
posición pero no tomó el control de todo el departamento pues éste fue dividido en dos.
Jerzy Neyman (quien no congeniaba con Fisher) y E. S. Pearson, hijo de Karl Pearson,
tomaron a su cargo el departamento de estadística, cuyo nombre fue cambiado a
Departamento de Estadística Aplicada, y Fisher quedó a cargo del Laboratorio Galton.
En un principio, J. Neyman fue invitado para una posición temporal en el departamento,
pero al año su posición se volvió permanente y la mantuvo hasta 1938.
En ese tiempo no era bien comprendida la ventaja de utilizar bloques hasta que,
mediante el análisis de varianza, Fisher logró aislar la varianza suscrita a las diferencias
en los bloques y estudió cómo ésta podría eliminarse del análisis. Demostró también
que en los diseños de cuadrados latinos la varianza podría ser separada en dos
direcciones, con el inconveniente de que en estos diseños el número de repeticiones
debía ser igual al número de tratamientos comparados. También por este tiempo Fisher
clarificó sus ideas sobre el análisis de resultados en un diseño factorial, esto es, diseños
donde se incluyen todas las combinaciones de los niveles de un grupo de tratamientos
o factores en un mismo experimento. Los investigadores de Rothamsted efectuaban
experimentos factoriales, pero al analizar los resultados, creían que era mejor investigar
un factor a la vez. Fisher mostró cómo evaluar correctamente los resultados de estos
experimentos considerando las posibles interacciones que pudiera haber entre factores.
Poco después, al observar que en los experimentos factoriales el número de
combinaciones de tratamientos crecía rápidamente conforme aumentaba el número de
factores y, por tanto, se volvía impráctico conducir este tipo de experimentos, menos
aún si se efectuaban réplicas, Fisher demostró que esta dificultad puede ser resuelta
incluyendo en los bloques sólo una parte de todas las posibles combinaciones de
tratamiento, llegando así a lo que se conoce como confusión. En los diseños con
bloques confundidos, las interacciones de alto orden están confundidas con los bloques.
El ejemplo que utilizó para ilustrar el concepto de confusión fue un experimento con tres
factores: nitrógeno, fosfato y potasio. En este experimento el investigador estaba
interesado en los efectos principales pero también deseaba estudiar lo que ocurría con
las interacciones de dos factores. Fisher sugiere construir bloques de tamaño cuatro en
lugar del tamaño ocho habitual, y de tal manera que la interacción de tres factores
estuviera confundida con los bloques. Todas las demás comparaciones no se verían
afectadas.
Este es un ejemplo que realmente le sucedió a Ronald Fisher, cuando le invitó a Miss
Buriel Bristol una taza de té con leche y ella la rechazó pues la leche había sido
agregada al final. Es, pues, muy interesante leer en este libro cómo se desarrollaron
algunas técnicas del diseño experimental. El único defecto que se le adjudica a esta
publicación, al igual que a Statistical Methods for Research Workers, es el hacer un
énfasis excesivo en las pruebas de significancia. Fisher encontró de gran interés todos
los problemas combinatorios surgidos de diseños experimentales e hizo contribuciones
notables a la materia. De hecho, encontró que existían 56 cuadrados latinos estándar
de 5 5 y no los 52 que MacMahon, quien era una autoridad en análisis combinatorio,
expuso en Combinatory Analysis. Fisher trabajó bastante en la demostración de la
existencia de soluciones combinatorias al problema de bloques incompletos
balanceados, esto es, diseños en los que el número de unidades en un bloque es menor
que el número de tratamientos y donde cada pareja de tratamientos aparece junta en el
mismo número de bloques. Se mostró todo un catálogo de estos diseños en la primera
edición de Statistical Tables for Biological Agricultural and Medical Research, que en
1938 publicó con Frank Yates. En esta publicación se incluyen tablas para algunas
distribuciones, cuadrados latinos ortogonales, tablas para probar la significancia entre
dos medias, etcétera. En las siguientes ediciones, gracias a la
APUNTES DE HISTORIA DE LAS MATEMÁTICAS VOL. 1, NO. 3, SEPTIEMBRE 2002
39
Cooperación de matemáticos de la India, se agregaron nuevos diseños de bloques
incompletos balanceados y se probó la no existencia de otros. Ronald Fisher colaboró
sólo en una parte de la revisión del material para la sexta edición, publicada en 1963,
pues murió en julio de 1962.
FISHER Y SUS CONTRIBUCIONES A LA GENÉTICA
En este artículo no se cubrirán en detalle las contribuciones de Fisher en genética,
aunque su interés por esta área, como ya se mencionó anteriormente, empezó a muy
temprana edad y uno de sus más importantes artículos lo publicó en 1918, donde abordó
el tema de la correlación existente entre parientes bajo el supuesto de herencia
Mendeliana. En este artículo muestra claramente que esta correlación no solo puede
ser interpretada, sino que la herencia Mendeliana conduce a observar este tipo de
correlaciones. Muestra también cómo la correlación puede ser usada para partir la
variación observada en fracciones heredables y no heredables, las que a su vez se
pueden dividir en otras fracciones. A partir de este artículo se aclararon muchas dudas
sobre este tema. Después de tratar con la cuestión genética de la variación, Fisher
volvió su atención a la relación entre el principio de selección natural de Darwin y los
principios de la herencia de Mendel. Retrasó la publicación de sus conclusiones hasta
1930 y las incluyó como un primer capítulo de su libro The Genetical Theory of Natural
Selection, el cual publicó en ese año.
Algunos de ellos, como sus experimentos con aves, terminaron cuando se alcanzó el
objetivo planteado. El análisis teórico siempre estuvo por delante de la investigación
experimental, esto con el fin de asegurar que los objetivos estuvieran bien definidos.
Así, siempre a su manera, los experimentos genéticos que llevaba a cabo ilustraban su
credo estadístico. A pesar de todo esto, Fisher nunca ocupó una posición dominante en
genética como lo hizo en estadística.
DISTINCIONES RECIBIDAS
Durante su vida, Fisher recibió muchos honores y premios entre los que se pueden
mencionar: