Académique Documents
Professionnel Documents
Culture Documents
PROBABILIDAD
ÍNDICE GENERAL:
BIBLIOGRAFÍA…………………………………………………….....28
2
1.CONTEXTO HISTÓRICO Y PRECURSORES
3
60×3/8 para el segundo; para el problema de los arqueros, el premio se dividía en la
proporción 4/9, 3/9 y 2/9. Como más tarde se pondría de manifiesto, esta solución
obtenida por Pacioli es incorrecta.
Fue Girolamo Cardano (1501-1576) quien escribió la primera obra importante
relacionada con el cálculo de probabilidades en los juegos de azar. Fue en 1565 y se
llamaba Libro de los juegos de azar. Además Cardano se había ocupado anteriormente
del problema del reparto de apuestas y en 1539 llegó a la conclusión de que la solución
de Pacioli era incorrecta porque al considerar tan sólo el número de juegos ganados por
cada equipo, no contaba cuántos juegos debían ganar para hacerse con el premio.
Cardano propuso como solución del problema que si n es el número de juegos totales y
a y b los juegos ganados por cada equipo, el premio debía repartirse de la siguiente
manera:
[1+2+…+(n-b)]: [1+2+…(n-a)].
Esta solución es, en general, incorrecta y sólo da resultados válidos en casos
particulares.
Niccolo Tartaglia (1499–1557), también intentó resolver este problema y en 1556
publicó un libro en el que descartaba la solución dada por Pacioli y daba su propio
solución: si un equipo ha ganado a puntos y el otro b, se juega a n puntos y el premio
total es P, las ganancias deberían repartirse de la forma:
4
2.NACIMIENTO Y EVOLUCIÓN DE LA TEORIA
DE LA PROBABILIDAD
Cierto día del año 1654, Blaise Pascal (1623 - 1662) matemático francés, hacía un
viaje en compañía de un jugador más o menos profesional conocido como el caballero
de Meré, quien era una persona apasionada por todo lo relacionado con el juego de los
dados y las cartas, siendo además un hombre noble e ilustrado.
Este caballero creía que había encontrado una "falsedad" en los números al analizar
el juego de los dados, observando que el comportamiento de los dados era diferente
cuando se utilizaba un dado que cuando se empleaban dos dados. La "falsedad" partía
simplemente de una comparación errónea entre las probabilidades de sacar un seis con
un solo dado o de sacar un seis con dos dados. Para el caballero debía existir una
relación proporcional entre el número de jugadas necesarias para conseguir el efecto
deseado en uno y otro caso. El problema estaba en que el citado caballero no tuvo en
cuenta que en el segundo caso estaba analizando una probabilidad compuesta en donde
las distintas probabilidades se deben calcular multiplicativamente.
Este y otros problemas planteados por el caballero a Pascal sobre cuestiones
relacionadas con diferentes juegos de azar, dieron origen a una correspondencia entre el
propio Pascal y algunos de sus amigos matemáticos, sobre todo con Pierre de Fermat
(1601-1665) de Toulouse, abogado de profesión, pero gran amante de las matemáticas.
Esta correspondencia constituye el origen de la teoria moderna de la probabilidad.
En una carta de Pascal a Fermat, en la que narraba la anécdota anteriormente
mencionada, concluía que "el caballero de Meré tiene mucho talento, pero no es
geómetra; ésto es, como sabéis un gran defecto" (carta del 29 de julio de 1654).
Otro de los problemas famosos planteados por el caballero a Pascal fue resuelto por
éste y Fermat tras el carteo de manera independiente, llegando ambos a la misma
solución : En una partida de dados intervienen dos jugadores y apuestan 32 doblones de
oro cada uno, eligiendo un número diferente, gana el juego el primero que obtenga tres
veces el número que eligió. Después de un rato de juego, el número elegido por el
primer apostador ha salido dos veces mientras el otro jugador sólo una vez ha acertado,
en este instante la partida debe suspenderse. ¿Cómo dividir los 64 doblones de oro
apostados? ¿en qué proporción ha de ser compensado cada jugador?.
En la correspondencia que siguió a este problema, tanto Pascal como Fermat
estuvieron de acuerdo en que el primer jugador tiene derecho a 48 doblones de oro.
Veamos también el último de los problemas históricos ( al ser su solución parte del
inicio de la probabilidad actual) que propuso Meré y resolvieron Pascal y Fermat:
El juego consistía en lanzar 24 veces un par de dados y el problema era decidir si es lo
mismo apostar a favor o en contra de la aparición de por lo menos un seis doble.
Solución:
A= {No sacar un seis doble en una tirada de dos dados} , P(A)=35/36
P(A y A y A………24 veces….y A)= (35 / 36) 24
Este número vale 0´508596121 y por tanto la probabilidad del suceso
contrario será 1- P(A y A….24 veces…y A)= 1- 0´508596121 = 0´491
5
Luego es más probable obtener una vez un seis doble en 24 tiradas que
obtenerlo al menos una vez. En cambio para 25 tiradas cambian las cosas
pues 1- (35 / 36) 25 = 0´505
Pascal y Fermat resolvieron este problema y otros muchos y fueron los que
empezaron a formalizar la teoría de las probabilidades, probando el desacuerdo con el
caballero de Meré, este se debía a que era erróneo el cálculo que había efectuado, ya que
se equivocó en considerar equiprobables sucesos que no lo eran, y sólo cuando
los casos posibles son equiprobables tiene sentido aplicar la definición dada por Meré
de probabilidad. Sin embargo, Pascal erró al intentar extender algunos de los resultados
de los problemas del caballero al caso en el que hubiera tres o más jugadores.
Ni Pascal ni Fermat expusieron sus resultados por escrito y fue el físico-matemático
holandés Christian Huygens (1629-1695) quien en 1657 publicó un breve tratado
titulado ”De Ratiocinnis in ludo aleae” (sobre los razonamientos relativos a los juegos
de dados) inspirado en la correspondencia sostenida entre los dos creadores de la teoría
de la probabilidad. Además Huygens extendió algunos resultados de Pascal y aclaró
varios problemas para tres o más jugadores.
En 1665, Pascal publicaba Tratado sobre el triángulo aritmético, la más importante
contribución realizada hasta la fecha en el ámbito de la combinatoria. El libro se basa en
la construcción y propiedades combinatorias del posteriormente llamado triángulo de
Pascal, que es de la siguiente forma:
Fila /Columna 0 1 2 3 4 5 6 7 8
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
7 1 7 21 35 35 21 7 1
8 1 8 28 56 70 56 28 8 1
6
Primeras definiciones y teoremas básicos:
7
A continuación expondremos los tres teoremas más importantes de la probabilidad
clásica. Estos teoremas los idearon Bernoulli (Teorema de la suma, formalizado por
Bayes) , De Moivre (Teorema de la multiplicación) y Bayes (Teorema de la
probabilidad condicionada), aunque todos los conceptos que se manejan en estos
teoremas aparecen ya de forma implícita y muy frecuente en los diferentes trabajos de
Pascal, Fermat y Huygens.
-Teorema de la Suma:
Pascal dio a entender implícitamente que sabía cómo calcular los casos favorables
de un suceso A si conocía los casos favorables de unos Aj disjuntos cuya unión es A (es
decir, si los Aj son una partición de A). Jacob Bernoulli también fue consciente de ello,
y fue más lejos al darse cuenta de que la probabilidad de la unión no es la suma de las
probabilidades si los sucesos no son disjuntos, aunque no supo dar la razón.
No fue ninguno de ellos quien formuló finalmente el teorema de la suma de la
probabilidades, sino el reverendo inglés Thomas Bayes (1702–1761), cuyo trabajo fue
leído póstumamente, en 1763. En esta obra, Bayes da la primera definición rigurosa y
explícita de sucesos disjuntos y enunció la fórmula ahora conocida:
-Teorema de la Multiplicación:
La obra de De Moivre contó con tres ediciones, lo que da una idea del gran interés
que despertó esta materia en aquella época. En las dos últimas ediciones de la obra el
autor también da las primeras indicaciones acerca de la distribución normal de las
8
probabilidades, que más tarde desarrollaría un papel sumamente importante en el
desarrollo la teoría de la probabilidad.
-Teorema de Bayes:
Además, el teorema que lleva su nombre no es sólo suyo, ya que Bayes no estaba
en condiciones de formular con probabilidades totales. Fue Pierre–Simon Laplace
(1749–1827) quien mejoró y desarrolló la mayor parte del teorema de Bayes en su
Théorie analytique des probabilités (Experiencia en la Filosofía de la Teoría de la
Probabilidad) en 1812.
Sea A un suceso que ocurre en conjunción con uno y sólo uno de los n sucesos
disjuntos B1 .....Bn . Si se sabe que el suceso A ha ocurrido, ¿cuál es la probabilidad de
que el suceso B j también? Laplace respondió de la siguiente manera: “La probabilidad
de existencia de una de esas causas es igual a una fracción con un numerador igual a la
probabilidad del suceso que se sigue de esta causa y un denominador que es la suma de
las probabilidades relativas a todas las posibles causas. Si estas diferentes causas a
priori no son equiprobables, entonces en lugar de tomar la probabilidad del suceso que
sigue a cada causa, se toma el producto de esta probabilidad por tantas veces la
probabilidad de la causa”. Esta fórmula se escribe en notación más actual de la siguiente
manera:
P( Bi ) ⋅ P( A | Bi )
P( Bi | A ) = ∞
∑ P( A | B ) ⋅ P( B )
i =1
i i
9
La ley de los Grandes Números:
⎧X ⎫⎪ ⎧X ⎫⎪
P⎨ − p ≤ ε ⎬ > c ⋅ P⎨ − p > ε ⎬
⎩N ⎪⎭ ⎩N ⎪⎭
⎧X ⎫⎪ 1
∀ε > 0 ∀c ∈ Z + ∃N tal que P ⎨ − p > ε ⎬ <
⎩N ⎪⎭ c + 1
10
Bernoulli tomó como ejemplo para aclarar este problema c=1.000 y obtuvo como
resultado que eran necesarias 25.550 observaciones. La intuición le decía que no hacían
falta tantas y, por ello, lo intentó con otros valores de c. Desilusionado por sentir que
había fracasado en su intento de cuantificar la certeza moral, Bernoulli no incluyó en su
libro las aplicaciones prometidas.
El que sí lo hizo fue su sobrino Niklaus Bernoulli(1687–1759), que aplicó el
resultado de su tío a registros de 14.000 nacimientos y llegó a la inesperada conclusión
de que la frecuencia de nacimientos de niños es mayor que la de niñas, en la proporción
de 18:17. Los resultados tanto de Bernoulli como de su sobrino fueron confirmados
años después por Laplace.
De esta manera, gracias a Bernoulli, se introdujo en la teoría de la probabilidad la
ley de los Grandes Números, uno de los conceptos más importantes en calculo de
probabilidades, muestreos, etc… y con amplias aplicaciones en muchos campos de la
estadística y de las matemáticas y la ciencia en general. Esta ley además será objeto de
conversaciones entre matemáticos en los siglos venideros, estando sujeta a constantes
estudios, mejoras y ampliaciones hasta prácticamente nuestros días.
⎛ m⎞ m!
entrañaba esta operación era el cálculo del número combinatorio ⎜⎜ ⎟⎟ =
⎝ k ⎠ k!⋅(m − k )!
Jacob consiguió realizar ciertas estimaciones de dudosa precisión, pero que al no
manejar números muy grandes fueron suficientes para demostrar sus teoremas.
Posteriormente, De Moivre intentó ser algo más preciso y demostró que para B
1
m+
−m
constante m! ≈ B ⋅ e ⋅m
. Con el fin de determinar el valor de esa constante,
2
1 1 1 1
construyó la siguiente expresión logarítmica: ln B= 1 − + − + − ......
12 360 1260 1680
y concluyó según sus cálculos que B era igual a 2´5074. Este resultado parecía
convincente, pero De Moivre no quedó satisfecho al no poder vincularlo con ninguna
constante matemática conocida. Por ese motivo pidió consejo y ayuda a su buen amigo
James Stirling (1692-1770) quien demostró que B= 2π .
Tras la obtención de este importante dato, De Moivre calculó una tabla m! y obtuvo
un resultado que dice lo siguente:
⎧ n ⎫ ⎧ n⎫ 2 2 2
P ⎨ X = + t ⎬ ≈ P ⎨ X = ⎬ ⋅ e −( 2t / n ) = ⋅ e −( 2t / n)
⎩ 2 ⎭ ⎩ 2⎭ 2πn
11
De Moivre dibujó la gráfica de esta curva, introduciendo el importantísimo concepto
de “distribución normal” y demostró que esta curva es simétrica en torno al máximo y
1
que los puntos de inflexión están a distancia ⋅ n de este máximo. Por tanto , aquí
2
está el Teorema Central del Límite que se conoce como el hecho de que el promedio de
una muestra aleatoria independiente convenientemente normalizada sea
aproximadamente normal.
Ahora De Moivre ya estaba en condiciones de resolver el problema planteado por
Bernoulli en la Ley de los Grandes Números:
⎧ n ⎫
k
2
∑ P⎨⎩ X = 2 + t ⎬ = ∫e
2
−( 2t / n)
dt
⎭ 2πn 0
Para finalizar, De Moivre encontró que n era la unidad cuya distancia del centro
debe ser medida. Así, la precisión de una estimación de la probabilidad aumenta igual
que la raíz cuadrada del número de experimentos; en otras palabras, De Moivre acababa
de descubrir la importancia de la varianza.
De Moivre repitió el experimento de Bernoulli y obtuvo que bastaban 6.498
observaciones. Aunque mejoró el método, no llegó a reconocer la importancia del
decubrimiento de la curva de la normal y no pudo aplicar su resultado a otros
problemas.
12
De Moivre halló la siguiente solución:
a b
⎛ p⎞ ⎛ p⎞
⎜⎜ ⎟⎟ − 1 ⎜⎜ ⎟⎟ − 1
p A = ⎝ ⎠a +b p B = ⎝ ⎠a +b
q q
y
⎛q⎞ ⎛ p⎞
⎜⎜ ⎟⎟ − 1 ⎜⎜ ⎟⎟ − 1
⎝ p⎠ ⎝q⎠
b ⋅ p A − a ⋅ pB
E(N ) =
p−q
Se propone un juego de azar en el que pagas una apuesta inicial fija. Consiste en el
lanzamiento de una moneda repetidamente hasta que aparece la primera cara. Una vez
aparece, ganas una moneda si la cara aparece en el primer lanzamiento, dos monedas si
aparece en el segundo, 4 monedas si aparece en el tercero, 8 en el cuarto, etc., doblando
el premio en cada lanzamiento adicional. Así, ganarías 2k−1 monedas en k lanzamientos.
¿Cuánto estarías dispuesto a pagar para jugar a este juego?
La probabilidad de que ganes más de 210 monedas es menor que una entre mil. La
probabilidad de que ganes más de 1 es menor que una entre cien. A pesar de ello ¡el
valor esperado del premio es infinito!
Para calcularlo:
Esta suma diverge a infinito. Así, de acuerdo a la teoría tradicional del valor
esperado, no importa cuanto pagues por entrar en el juego, porque saldrás ganando a
largo plazo (imagina pagar 1 billón cada vez, para ganar la mayor parte de las veces
sólo un par de monedas). Su idea consiste en que las raras ocasiones en las que ganes
13
una cantidad elevada pagarán con creces los cientos de trillones que habrás tenido que
pagar para jugar.
Este juego fue propuesto en 1713 por Nicolás Bernoulli y se conoce con este
nombre porque San Petersburgo fue la ciudad donde Nicolás y si hermano Daniel
discutieron sobre este problema. De esta forma se puso de manifiesto que la opción
aparentemente más razonable no siempre es la más correcta desde el punto de vista
matemático.
14
3.LA TEORÍA MODERNA DE LA PROBABILIDAD
h 2 2
φ (Δ) = ⋅ e −h Δ
π
15
Sin embargo lo que sí hizo Poisson, fue introducir de alguna manera el concepto de
variable aleatoria, no como lo entendemos actualmente, sino esbozando sus primeros
pasos como un conjunto de b1 , b2 ,..., bn cada uno con su probabilidad p1 , p 2 ,...., p n .
Posteriormente, Chebyshev asumió que esos conjuntos de los que hablaba Poisson eran
independientes e introdujo el término” variable aleatoria” que aún tiene validez en la
actualidad y fue A.Liapunov (1857-1918) quien especificó que estas variables no serían
siempre independientes y que esa dependencia estaba sujeta a ciertas condiciones.
Además Liapunov dio una definición de distribución casi exacta a la actual:
P (a < ε < b ) = F (b ) − F ( a )
La ley de los Grandes Números propuesta años atrás por Jacob Bernoulli fue
generalizada por primera vez en 1837 por Poisson, que además la bautizó con este
nombre. El francés consideró el siguiente experimento: Sea una sucesión de n pruebas
independientes, en cada una de las cuales un suceso B puede ocurrir con probabilidad
p k con k = 1,…,n. Si α n es el número de ocasiones en las que sucede B en n pruebas,
⎧α p + p 2 + .... + p n ⎫⎪
entonces tenemos que: ∀ε > 0 P⎨ n − 1 < ε ⎬ ⎯n⎯
⎯→ 0
→∞
⎩ n n ⎪⎭
Posteriormente, en 1843 Chebyshev criticó el teorema de Poisson y enunció su
propia versión. No obstante, era muy similar a ésta y ninguna de las dos superaban
cualitativamente la idea original de Jacob Bernoulli. No fue hasta 1867, época en la que
Chebyshev empezó a trabajar con variables aleatorias, cuando se produjo ese avance en
las investigaciones.
Ya en 1909, Émile Borel (1871-1956) se dio cuenta de que el trabajo de Bernoulli
llevaba a una afirmación más importante que simplemente la ley de los Grandes
Números para p = 0´5 y el matemático italiano Francesco Cantelli (1875-1966)
descubrió lo que se denomina ley Fuerte de los Grandes Números añadiendo el hecho
⎧ α ⎫
de que para cualquier valor de p: P ⎨ L n = p ⎬ = 1 . A lo largo del siglo XX otros
⎩n →∞ n ⎭
matemáticos como Kolmogorov y Khinchine trabajaron también aportando detalles y
generalizaciones de este problema.
Hablemos ahora del perfeccionamiento del Teorema Central del Límite. Los
esfuerzos realizados por lograr una generalización del teorema planteado por De Moivre
fueron arduos y complicados y, aunque Laplace ya aportó estudios nuevos alrededor de
1809, matemáticos de renombre como Poisson o Bessel intentaron dar sus propias
versiones de un teorema local del límite y erraron.
No sería hasta el año 1887, cuando Chebyshev demostró un teorema acerca de la
acotación de la suma de una variable aleatoria con esperanza 0. Para demostrar esto,
inventó el Método de los momentos, pieza fundamental de la teoría estadística actual.
A.Markov (1856-1922), discípulo de Chebyshev, se dio cuenta posteriormente de
algunos errores de su maestro y revisó la fórmula. Esta es la versión del teorema de
Chebyshev que revisó Markov en 1898:
16
Sea S n la sucesión de las sumas c1 + c 2 + .... + c n y ϕ n (x) la función de distribución
∞ ∞
1
de cn . Si ∀k se cumple que ∫ x k dϕ n ( x) → ⋅ ∫ x k e −x
2
/2
dx , entonces ∀a, b
−∞ 2π −∞
⎧ Sn ⎫ 1
b
⋅ ∫ e −x
2
P ⎨a < < b⎬ → /2
dx .
⎩ Var ( S n ) ⎭ 2π a
Durante la última parte del siglo XIX y ya sobre todo en el siglo XX, tuvo lugar la
creación de diferentes escuelas y tendencias dedicadas al estudio de la matemática en el
campo de la peoría de la probabilidad en particular. Las más importantes fueron:
17
axiomático de la teoría de probabilidades, utilizando la medida de Lebesgue. Este fue el
comienzo del aporte más importante que Kolmogorov hizo a la teoría del cálculo de
probabilidades, o al menos por el que más se le conoce y del que hablaremos
posteriormente: la axiomatización de la probabilidad.
Esta escuela se formó con Meyer y su grupo de Estrasburgo y también con Nevev y
Fortret de París, aunque sin duda resalta por encima de todos la figura de Paul Levy.
Los estudios más importantes referidos a este movimiento se llevaron a cabo en la
universidad de París, en la que por ejemplo un grupo de matemáticos encabezados por
Laurent Schuwartz generalizaron el concepto de diferenciación utilizando la teoría de
distribuciones.Esta aportación fue de vital importancia, ya que en la actualidad no es
posible dar explicaciones rigurosas de probabilidad sin utilizar estos conceptos. La
innovación y métodos de la escuela francesa influyó de manera decisiva en las dos
escuelas anteriores.
18
complementación y por uniones numerables. Luego se define una función P que asigna
a un suceso un número entre 0 y 1 (su medida). Así, la terna (Ω, A, P) se convierte en
un espacio de probabilidades. No obstante, la teoría de la probabilidad y la de la medida
permanecen perfectamente diferenciadas, ya que la segunda carece de algo necesario en
la primera; la independencia de variables aleatorias.
1. Para cada suceso aleatorio B hay asociado un número no–negativo P(B) que se llama
su probabilidad.
2. P(Ω)=1
3. Si los sucesos B1 , B2 ,...., Bn son mutuamente excluyentes dos a dos, entonces,
P ( B1 + B2 + .... + Bn ) = P( B1 ) + P( B2 ) + .... + P ( Bn )
Del hecho de que Ω = Ø ∪ Ω y el axioma 3 se deduce que P(Ω) = P(Ø) ∪ P(Ω) ,
y de esto se deduce la siguiente serie de resultados destacados:
P(Ø) = 0
∀ B , P( B c )= 1 − P(B)
∀ B, 0 ≤ P(B) ≤ 1
B ⊆ C ⇒ P(B) ≤ P(C)
P ( B ∪ C ) = P ( B ) + P (C ) − P ( B ∩ C )
n
P( B1 ∪ .... ∪ Bn ) ≤ ∑ P( B j )
j =1
19
TRATAMIENTO Y
COMENTARIO DE
UN
TEXTO ORIGINAL
20
LA PROBABILIDAD EN LAPLACE
1. Introducción:
En la imagen podemos observar la portada original del libro del que, a continuación
pasaremos a comentar algunos fragmentos.
2. Metodología
21
3. Traducción y comentario del texto seleccionado
-Justificación de la Laplace sobre por qué escribe el Essai philosophique sur les
probabilités:
En este primer fragmento, Pierre Simon Laplace realiza una breve explicación de
cómo se le ocurrió la idea de hacer un ensayo para hablar acerca de la probabilidad.
Explica que ha publicado otra obra ( Theorie analytique des Probabilités) en la que
expone un amplio curso de probabilidad, pero que en este libro no se servirá de
resultados matemáticos sino que intentará acercarnos la probabilidad aplicándola a los
problemas de la vida.
Laplace muestra, sorprendentemente y desde el principio, una concepción
probabilística del entendimiento frente a su ya conocido determinismo, que quedará
totalmente plasmada en los próximos párrafos.
22
- Determinismo e interés por la probabilidad en Laplace:
Entre estas líneas se encuentra quizás una de las más célebres frases de Laplace:
He aquí, por tanto, la razón que lleva a Laplace a interesarse tan profundamente por
la probabilidad. Y es que él, al lado de una firme concepción determinista acerca de la
naturaleza humana, conocida por todos los que le rodeaban y por nosotros en la
actualidad, mantuvo la convicción de que la posibilidad del hombre de alcanzar la
certeza absoluta está completamente cerrada, y que lo más que puede aspirar a alcanzar
es el conocimiento meramente probable. Este firme pensamiento es el que le lleva a
emprender sus estudios sobre probabilidad.
23
De la Probabilidad
Todos los acontecimientos, incluso aquellos
que por su insignificancia parecen no
atenerse a las grandes leyes de la
naturaleza, no son sino una secuencia tan
necesaria como las revoluciones del sol. Al
ignorar los lazos que los unen al sistema
total del universo, se los ha hecho depender
de causas finales o del azar, según que
ocurrieran o se sucedieran con regularidad
o sin orden aparente, pero estas causas
imaginarias han ido siendo descartadas a
medida que se han ido ampliando las
fronteras de nuestro conocimiento, y
desaparecen por completo ante la sana
filosofía que no ve en ellas más que una
expresión de nuestra ignorancia de las
verdaderas causas.
Los acontecimientos actuales mantienen
con los que les preceden una relación
basada en el principio evidente de que una
cosa no puede comenzar a existir sin una
causa que la produzca. Este axioma,
conocido con el nombre de principio de
razón suficiente, se extiende incluso a las
acciones más indiferentes. La voluntad más
libre no puede producirlas sin un motivo
determinante, pues si, siendo absolutamente
iguales todas las circunstancias de dos
situaciones, actuara en una y dejara de
hacerlo en la otra, su elección sería un
efecto sin causa y ella sería entonces, como
dice Leibniz, el azar ciego de los epicúreos.
La opinión contraria es una ilusión del
espíritu que, perdiendo de vista las fugaces
razones de la elección de la voluntad en las
cosas indiferentes, se persuade de que ella
se ha determinado por sí misma, y sin estar
motivada por nada.
Así pues, hemos de considerar el estado
actual del universo como el efecto de su
estado anterior y como la causa del que ha
de seguirle. Una inteligencia que, en un
momento determinado, conociera todas la
fuerzas que animan la naturaleza, así como
la situación respectiva de los seres que la
componen, si además fuera lo
suficientemente amplia como para someter
a análisis tales datos, podría abarcar en una
sola fórmula los movimientos de los
cuerpos más grandes del universo y los del
átomo más ligero; nada le resultaría incierto
y tanto el futuro como el pasado estarían
presentes a sus ojos. El espíritu humano
ofrece, en la perfección que ha sabido dar a
24
la astronomía, un débil esbozo de esta
inteligencia. Sus descubrimientos en
mecánica y geometría le han puesto en
condiciones de abarcar en las mismas
expresiones analíticas los estados pasados y
futuros del sistema del mundo. Aplicando el
mismo método a algunos otros objetos de
su conocimiento, ha logrado reducir a leyes
generales los fenómenos observados y a
prever aquellos otros que deben producirse
en ciertas circunstancias. Todos los
esfuerzos por buscar la verdad tienden a
aproximarlo continuamente a la inteligencia
que acabamos de imaginar, pero de la que
siempre permanecerá infinitamente alejado.
Esta tendencia, propia de la especie
humana, es la que la hace superior a los
animales, y sus progresos en este ámbito, lo
que distingue a las naciones y los siglos y
cimenta su verdadera gloria.
- Definición de probabilidad:
“La teoría del azar consiste en (…) determinar el número de casos favorables al
acontecimiento cuya probabilidad de busca. La proporción entre este número y el de
todos los casos posibles es la medida de esta probabilidad, que no es, pues, más que una
fracción cuyo numerador es el número de casos favorables y cuyo denominador el de
todos los posibles”
La vigencia de este y otros conceptos formulados por Laplace dan una idea de la
universalidad de los estudios realizados por el francés y su importancia a lo largo de la
historia.
25
La probabilidad es relativa en parte a
esta ignorancia y en parte a nuestros
conocimientos. Sabemos que de tres o más
acontecimientos sólo debe ocurrir uno, pero
nada induce a creer que ocurrirá uno de
ellos más bien que los otros. En este estado
de indecisión nos resulta imposible
pronunciarnos con certeza sobre su
acaecimiento. Sin embargo, es probable que
uno de estos acontecimientos, tomado
arbitrariamente, no acaezca, pues vemos
varios casos iguales de posibles que
excluyen su acaecimiento, mientras que
sólo uno lo favorece.
La teoría del azar consiste en reducir
todos los acontecimientos del mismo tipo a
un cierto número de casos igualmente
posibles, es decir, tales que estemos igual
de indecisos respecto a su existencia, y en
determinar el número de casos favorables al
acontecimiento cuya probabilidad se busca.
La proporción entre este número y el de
todos los casos posibles es la medida de
esta probabilidad, que no es, pues, más que
una fracción cuyo numerador es el número
de casos favorables y cuyo denominador el
de todos los posibles.
Por último, en estos párrafos Laplace critica la manera de pensar de la época, sus
fuentes de conocimiento y la educación. Pone el ejemplo de la astrología, contra la que
a lo largo de toda su vida arremete duramente, y critica que tanto ésta como otras
enseñanzas son inculcadas desde la infancia en base únicamente a creencias universales
arraigadas entre la población y sin ningún fundamento científico. También cree que con
la llegada de las nuevas ideas ilustradas eso va a cambiar y comenta que la tarea de
educar al pueblo debe reservarse a gente instruida, imparcial y crítica con la realidad
que les rodea.
Una vez aclarado este punto pasa a enumerar los principios generales del cálculo de
probabilidades, ya conocidos por todos nosotros.
La propagación de estos errores que, en
tiempos de ignorancia, han cubierto la faz
de la tierra, se debe a la influencia de la
opinión de aquellos que la muchedumbre
considera más preparados y en quienes
suele depositar su confianza en lo que se
refiere a los asuntos más importantes de la
vida. La astrología nos ofrece un buen
ejemplo. Estos errores, inculcados en la
infancia, adoptados sin examen y sin otra
base que la creencia universal, se han
mantenido durante mucho tiempo, hasta
que por fin el progreso de las ciencias los
ha erradicado del espíritu de los hombres
ilustrados, cuya opinión los ha hecho
desaparecer después del pueblo mismo
gracias al poder de la imitación y de la
costumbre que con tanta generosidad los
había difundido. Este poder, el resorte más
potente del mundo moral, establece y
preserva en toda una nación ideas
enteramente contrarias a las que, con igual
dominio, mantiene en otro sitio. ¡Qué
tolerancia no habrá que tener hacia las
opiniones distintas de las nuestras, cuando
esta diferencia no depende generalmente de
otra cosa que los diferentes puntos de vista
en que las circunstancias nos han colocado!
Enseñemos a los que no consideramos
suficientemente instruidos, pero no sin
antes examinar rigurosamente nuestras
propias opiniones y sopesar con
imparcialidad sus probabilidades
respectivas.
27
BIBLIOGRAFÍA
HISTORIA DE LA PROBABILIDAD:
LIBROS:
INTERNET:
http://www.google.es/books?vid=OCLC01450686&id=kquzFVmtQ04C&pg=PA1&lpg
=PA1&dq=essai+laplace#PPP3,M1 (dirección exacta del libro)
29
30
31
32