Académique Documents
Professionnel Documents
Culture Documents
CONCEPTO DE PROBABILIDAD
15
probabilidad del evento A y se escribe: P(A). Cuando el experimento se repite una gran
cantidad de veces (n) y el evento ocurre f veces, la frecuencia relativa f/n será
prácticamente igual a este número p.
Supongamos ahora que la moneda se tuerce con unas pinzas. En este caso no se
puede suponer que los dos resultados posibles, cara o cruz, ocurran con la misma
probabilidad y, por consiguiente, no se puede calcular a priori la probabilidad P(A).
Inmediatamente surge la pregunta: ¿Cuál es el valor de P(A)? Si no se puede calcular a
priori la probabilidad P(A), la tenemos que estimar de la frecuencia relativa del suceso A
El resultado de lanzar la moneda deforme 400 veces fue de 184 caras y 216 cruces,
184
luego P(A) es aproximadamente igual a = 0.46 .
400
Antes de enunciar algunas de las propiedades que verifica la probabilidad,
recordaremos algunas nociones de Teoría de conjuntos que serán de utilidad en este
contexto. Listamos a continuación las principales operaciones con conjuntos y la
interpretación del resultado como evento.
• Ac complemento de A No sucede A
• A∪B unión Sucede A o sucede B o suceden ambos a la vez
• A∩B intersección Sucede A y sucede B
• A-B diferencia Sucede A pero no sucede B
• A⊂B inclusión Si sucede A también sucede B
Ahora, a partir de las propiedades que verifican las frecuencias relativas, podemos
postular las mismas propiedades para las probabilidades. Observando que f ≤ n, el número
de veces que ocurre el resultado A es igual o menor que el número de veces que se repite la
experiencia, concluimos que f/n ≤ 1, es decir, que la frecuencia relativa es menor o igual a
1. Por otra parte, f ≥ 0, será igual a cero en el caso que en ninguna de las repeticiones
ocurra el resultado A, y por lo tanto f/n ≥ 0. Luego:
f
0≤ A ≤1
n
Si consideramos dos eventos A y B que se excluyen mutuamente, es decir dos
resultados o dos conjuntos de resultados no pueden suceder simultáneamente, la frecuencia
relativa de A∪B (el evento sucede A o sucede B) es igual a la suma de las frecuencias
relativas de A y de B. Esto es consecuencia del hecho que cada vez que sucede A∪B
sucede uno, y sólo uno, de los eventos A y B.
f A∪ B f f
= A + B
n n n
Esta propiedad puede extenderse a más de dos eventos.
Por último, si consideramos las frecuencias relativas del conjunto vacío, ∅, que se
denomina evento imposible porque nunca sucede, y del conjunto de todos los resultados
posibles Ω (o espacio muestral) que también se denomina evento seguro, porque siempre
sucede, estas verifican que:
16
f∅ fΩ
=0 y =1
n n
Trasladando naturalmente estas propiedades de la frecuencia relativa la probabilidad,
resultan los axiomas de probabilidad:
Axiomas de probabilidad
1. 0 ≤ P ( A) ≤ 1
2. P (∅ ) = 0 y P (Ω ) = 1
3. Si A ∩ B = ∅ , entonces P ( A ∪ B ) = P ( A) + P (B )
Si A1 , Ai , …… son tales que Ai ∩ Aj = ∅ para todo i , j tales que i ≠ j , entonces
4.
P ( A1 ∪ A2 ∪ ……) = P ( A1 ) + P ( A2 ) + ……
( )
5. P A c = 1 − P ( A)
6. P(A ∪ B ) =P(A ) + P(B ) − P(A ∩ B )
7. P ( A − B ) = P ( A) − P ( A ∩ B )
8. Si A⊂B entonces P(A) ≤ P(B)
17
Probabilidad condicional
Ejemplo 5:
Hombre Mujer
Primario 70 112 182
Secundario 152 86 238
Terciario 43 37 80
265 235 500
fS∩M 86
=
fM 235
fS∩M
f
Pero S ∩ M = n y esta expresión se acerca cada vez más a P ( S ∩ M ) a
fM fM P (M )
n
medida que n crece.
Estas consideraciones nos llevan a definir en general la probabilidad condicional de
B dado (que ha sucedido) A, en símbolos P(B/A) poniendo:
P(A ∩ B)
P (B / A) = si P ( A) > 0
P ( A)
P ( A ∩ B ) = P ( A)P (B / A)
18
Si consideramos una partición del espacio muestral, es decir, una colección de
eventos B1,B2, ........., Bk mutuamente excluyentes y tales que uno de ellos deba ocurrir. En
símbolos:
k
B i ∩ B j = ∅ para todo i, j y ∪B i =Ω
i =1
Teorema de Bayes
Dada esta información, desearíamos saber por ejemplo lo siguiente: si una ciudad ha de
emitir un bono municipal, ¿cuál es la probabilidad de que este reciba una tasación A?
19
así que, dividiendo ambos miembros de esta ecuación por P(A ) , obtenemos
P(A / B ) P(B )
P(B / A ) =
P(A )
Luego dada una partición del espacio muestral: B1,B2, ........., Bk y recordando que la
probabilidad del evento A puede escribirse como
P(A / B 1 ) P(B 1 )
P(B 1 / A ) = =
P(A / B 1 ) P(B 1 ) + P(A / B 2 ) P(B 2 ) + P(A / B 3 ) P(B 3 )
0 .5 × 0 .7
= = 0.91
0.5 × 0.7 + 0.6 × 0.2 + 0.9 × 0.1
Es decir la probabilidad de que si un bono fue emitido por una ciudad, sea tasado
como A es del 91%.
20
independientes. Por ejemplo, si se tira varias veces una moneda, cada resultado (cara o
cruz) es independiente de todos los demás resultados en la secuencia.
Sin embargo, si consideramos el ejemplo 5 no podemos asegurar a priori que el sexo
y los estudios sean eventos independientes. La información de que una persona sea de uno
u otro sexo puede condicionar la probabilidad de tener, por ejemplo estudios terciarios.
Estos conceptos se pueden formalizar en la siguiente definición:
P ( A ∩ B ) = P ( A) P (B )
Una variable aleatoria se dirá discreta, si sus posibles valores forman un conjunto
finito o numerable, tales que sus puntos estén “separados”.
Si se tiene un experimento aleatorio, cuyos valores posibles indicamos con x1, x2,......,
podemos atribuirle a cada xi una probabilidad pi=P(X= xi). Si A es un evento cualquiera,
vale entonces que:
P (A) = ∑ P (X = x i )
xi∈ A
21
Ejemplo: Retomemos el ejemplo. Sea X igual al número de puntos obtenidos. Entonces
P(X= xi)=1/6, para xi= 1, 2, 3, 4, 5, ó 6.
Estos resultados pueden resumirse en una tabla de distribución de probabilidades:
X 1 2 3 4 5 6
P(X=x) 1/6 1/6 1/6 1/6 1/6 1/6
F (x ) = ∑ P(X = x ) i
xi ≤ x
F(X)
⎧0 si x<1
⎪1
⎪ si 1 ≤ x < 2
⎪6 1
⎪2
⎪ si 2≤ x<3 5/6
⎪6
⎪3 4/6
F (x) = ⎨ si 3≤ x<4
⎪6 3/6
⎪4
⎪6 si 4 ≤ x < 5 2/6
⎪
⎪5 si 5 ≤ x < 6
1/6
⎪6
⎪
⎩1 si x≥6 1 2 3 4 5 6 X
22
k
∑x f i i
f1 f fk
X= i =1
= x1 + x2 2 + + xk
n n n n
E ( X ) = x 1 P ( X = x1 ) + x 2 P ( X = x 2 ) + + xk P (X = xk )
E(X ) = 1 ×
1 1 1 1 1 1 21
+ 2× + 3× + 4× + 5× + 6× = = 3.5
6 6 6 6 6 6 6
El concepto de esperanza de una variable aleatoria fue siempre uno de los conceptos
básicos de la teoría de la probabilidad. En los albores de la teoría se lo utilizaba para
establecer cuál era la ganancia (o pérdida) promedio de un jugador con determinado tipo de
apuesta.
Se utiliza también con frecuencia el símbolo μX, o simplemente μ, para denotar a
E(X).
[ ] ( )
V ( X ) = E ( X − E ( X )) = E X 2 − [E ( X )]
2 2
23
Sean X e Y dos variables aleatorias entonces E(X ± Y) = E(X) ± E(Y)
24
Para responder a esta pregunta consideramos la variable X= número de caras
obtenidas en 3 lanzamientos de una moneda. X tiene una distribución B(3, 0.5) y por lo
tanto:
E (X ) = n p y V ( X ) = n p (1 − p )
P( X1 = n1 , X2 = n2 ,…, Xk = nk ) =
n!
p1n1 p2n2 …pknk
n1!n2!…nk !
donde n1+n2+.....+nk=n.
Esta asignación de probabilidades se denomina distribución multinomial y se
denota M(n, p1, p2,......,pk). Observemos que involucra k variables aleatorias, por lo
tanto, decimos que es una distribución multivariada.
Un ejemplo de esta distribución es el lanzamiento del dado n veces, los seis
resultados mutuamente excluyentes tienen todos probabilidad pi=1/6. Si consideramos
n=10 y definimos X1=nº de veces que sale 1 en 10 tiradas, X2=nº de veces que sale 2 en
10 tiradas,......., X6=nº de veces que sale 6 en 10 tiradas, la probabilidad, por ejemplo de
que haya salido exactamente 2 veces el 1, tres veces el 2, ninguna vez el 3, una vez el 4,
dos veces el 5 y dos veces el 6, es:
25
2 3 0 2 2 2
⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞
P( X1 = 2, X 2 = 3, X 3 = 0, X 4 = 1, X 5 = 2, X 6 = 2) =
10!
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ =
2!3!0!1!2!2! ⎝ 6 ⎠ ⎝ 6⎠ ⎝ 6⎠ ⎝ 6⎠ ⎝ 6⎠ ⎝ 6⎠
10
3628800 ⎛ 1 ⎞
= ⎜ ⎟ = 75600× 0.000000016= 0.00125
2× 6×1×1× 2× 2 ⎝ 6 ⎠
• Distribución de Poisson
En cada uno de los casos anteriores, la variable discreta, número de éxitos por
unidad (intervalo de tiempo, longitud, área, etc.) es representante de un proceso de
Poisson.
Se dice que un proceso de Poisson existe si podemos observar eventos discretos en
un intervalo continuo (de tiempo, longitud, área, etc.), de tal manera que si acortamos el
intervalo de manera suficiente
1. La probabilidad de observar exactamente un éxito en el intervalo es constante.
2. La probabilidad de observar exactamente más deun éxito en el intervalo es 0.
3. La ocurrencia de un éxito en cualquier intervalo de tiempo es estadísticamente
independiente de esta en cualquier otro intervalo.
26
3. La llegada de un cliente en cualquier intervalo de un segundo es independiente de
la llegada de cualquier otro cliente en cualquier otro intervalo de un segundo.
Decimos, entonces, que X tiene una distribución de Poisson que depende del
parámetro λ, y escribimos X∼P(λ)
Cada vez que se especifica el parámetro λ, puede generarse una distribución
específica. Una distribución de Poisson estará sesgada a la derecha cuando λ es pequeño y
se aproximará a la simetría al crecer λ.
Una propiedad interesante de esta distribución es que la media y la varianzas son
iguales al parámetro λ, es decir:
E (X ) = λ y V (X ) = λ
e −3 (3)
2
P ( X = 2 / λ = 3) = = 0.2240
2!
P ( X > 2 / λ = 3) = P ( X = 3 / λ = 3) + P ( X = 4 / λ = 3) + P ( X = 5 / λ = 3) +
Puesto que todas las probabilidades en una distribución de probabilidad deben sumar
1, los términos de la derecha de la ecuación pueden expresarse como
1 − P ( X ≤ 2 / λ = 3)
Por tanto,
P ( X > 2 / λ = 3) = 1 − P ( X = 0 / λ = 3) + P ( X = 1 / λ = 3) + P ( X = 2 / λ = 3) =
⎧ e − 3 (3)0 e − 3 (3)1 e − 3 (3)2 ⎫
= 1− ⎨ + + ⎬ = 0.5768
⎩ 0! 1! 2! ⎭
27
Afortunadamente, los cálculos manuales no son necesarios aquí. Refiriéndonos a las
tablas de la distribución de Poisson puede obtenerse el resultado.
• Distribución Hipergeométrica:
Este modelo se aplica cuando estamos interesados en obtener una muestra sin
reposición, en la cual no interesa el orden en el que han sido seleccionados los
integrantes de la muestra sino tan solo su naturaleza.
Supongamos que los miembros de una población de tamaño m pueden tener o no
una cierta propiedad y llamemos especiales a los miembros que la tienen. Definimos la
variable X como el número de miembros especiales de muestra sin reposición de tamaño
n y calculemos la probabilidad de que esta muestra contenga k miembros especiales con
k≤n
Sea s es l número de especiales en la población. Para obtener la probabilidad
buscada necesitamos conocer el número total de muestras que contiene exactamente k
miembros especiales y el número total de posibles muestras de tamaño n. Estas dos
cantidades está dadas por las siguientes expresiones:
⎛ s ⎞⎛ m − s ⎞ ⎛m⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟ y ⎜⎜ ⎟⎟
⎝ k ⎠⎝ n − k ⎠ ⎝ n⎠
⎛ s ⎞⎛ m − s ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟
⎝ k ⎠⎝ n − k ⎟⎠
P (X = k )
⎛m⎞
⎜⎜ ⎟⎟
⎝n⎠
P (rechazo ) = P ( X > 2) = 1 − P ( X = 0 ) − P ( X = 1) =
⎛ 5 ⎞⎛ 45 ⎞ ⎛ 5 ⎞⎛ 45 ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟⎜⎜ ⎟⎟
⎝ 0 ⎠⎝ 4 ⎠ ⎝ 1 ⎠⎝ 3 ⎠
=1− − = 0.045
⎛ 50 ⎞ ⎛ 50 ⎞
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
⎝4⎠ ⎝4⎠
28
V- DISTRIBUCIÓN DE PROBABILIDAD CONTINUA
Una variable aleatoria se dirá continua, si sus posibles valores son números reales. En
este caso, no puede asignarse a cada valor una probabilidad ya que, incluso en un intervalo
limitado hay una infinidad no numerable de valores: sólo puede garantizarse la probabilidad
a un intervalo que puede ser muy pequeño.
Supongamos que tenemos un número grande, n, de observaciones de una variable
aleatoria continua. Para analizar el comportamiento de la variable lo apropiado es agrupar
los datos y construir la serie de frecuencias relativas correspondiente. El comportamiento
de la variable se refleja gráficamente en un histograma o en el polígono de frecuencias.
Cuando aumenta la cantidad de observaciones y la amplitud de las clases se hacen muy
pequeñas, es evidente que el polígono de frecuencias se transformará en una curva suave,
esta curva se puede aceptar como el modelo teórico de una situación real.
Por lo tanto, la asignación de probabilidades a los intervalos se efectúa por medio de una función de
densidad de probabilidad o simplemente función de probabilidad (fdp).
La función de distribución acumulativa (cuya contraparte empírica es la distribución
de frecuencias acumuladas) se define como la probabilidad asignada al intervalo (-∞, x).
En símbolos:
F (x ) = P (X ≤ x )
29
0.3
0.2 0.5328
0.1
X
-3 -2 -1 1 2 3
1.57 μ=1.60 1.66
figura b
Diremos, entonces que la altura de las mujeres adultas está distribuida normalmente con parámetros
μ=1.60 m y σ=0.06 m y escribimos: X∼N(1.60, (0.06)2)
El área debajo de la curva entre dos límites cualesquiera de la escala horizontal
representa una probabilidad de obtener un valor de la variable (altura) situado entre estos
límites. Por ejemplo el área marcada en la figura b, da la probabilidad de que una mujer
elegida al azar tenga una estatura entre 1.57 m y 1.66 m. En este caso la probabilidad es
igual a 0.5328, es decir, que el 53.28% de las mujeres tendrán una estatura entre 1.57 m y
1.66 m.
Para resumir: si puede darse por supuesto que una variable determinada está distribuida normalmente
con parámetros conocidos μ y σ, es posible calcular la probabilidad de que un valor de la variable
correspondiente a un individuo escogido al azar esté situado entre dos límites prefijados cualesquiera. Esta
probabilidad puede utilizarse también para dar la proporción (o porcentaje) de todos los valores de la variable
que deberían estar entre estos límites.
Enunciaremos a continuación una importante propiedad de la distribución normal,
que facilita el cálculo de las probabilidades:
X −μ
Si X∼N(μ, σ2) entonces Z = ∼N(0,1)
σ
En palabras: si una variable X tiene una distribución normal con media μ y varianza σ2, entonces la
X −μ
variable Z= tiene una distribución normal con media 0 y varianza 1. Se dice, habitualmente, que la
σ
X −μ
transformación Z= estandariza a la variable X (centra a la variable y la expresa en unidades de
σ
desviaciones estándar) o que la variable Z tiene una distribución normal estándar.
Esta propiedad nos permite calcular probabilidades, o áreas, de cualquier distribución
normal a partir de una única tabla: la tabla de distribución acumulada de la normal estándar.
Por ejemplo, si queremos calcular la probabilidad de que una mujer elegida al azar tenga una altura
menor que 1.66 m, procedemos de la siguiente manera:
30
P ( X ≤ 1.66) = P ( Z ≤ 1) = 0.8414
Gráficamente:
0.3
0.2
0.8414
0.1
Z
-3 -2 -1 1 2 3
X
1.60 1.66
31